https://sarabic.ae/20210210/مقطع-فيديو-مزيف-لخطاب-أوباما-ماذا-فعلت-مايكروسوفت-وفيسبوك-لمواجهة-ظاهرة-خطيرة-1048072167.html
مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة
مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة
سبوتنيك عربي
كشفت تقارير صحفية عن مواجهة علماء من شركتي "مايكروسوفت" و"فيسبوك" الأمريكيتين لظاهرة خطيرة، ألا وهي "التزييف العميق" لمقاطع الفيديو. 10.02.2021, سبوتنيك عربي
2021-02-10T14:42+0000
2021-02-10T14:42+0000
2022-01-20T08:55+0000
https://cdn.img.sarabic.ae/img/07e4/09/17/1046621026_0:172:3089:1918_1920x0_80_0_0_2e1653f6ec0bdfe5a4db7858196cfd5a.jpg
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2021
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
الأخبار
ar_EG
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.sarabic.ae/img/07e4/09/17/1046621026_0:74:3089:2016_1920x0_80_0_0_05087253a84abfce9008467631b3507f.jpgسبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
علوم, الأخبار, مايكروسوفت, فيديوهات, فيديو, إعلان مزيف, أخبار مزيفة, فيسبوك
علوم, الأخبار, مايكروسوفت, فيديوهات, فيديو, إعلان مزيف, أخبار مزيفة, فيسبوك
مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة
14:42 GMT 10.02.2021 (تم التحديث: 08:55 GMT 20.01.2022) كشفت تقارير صحفية عن مواجهة علماء من شركتي "مايكروسوفت" و"فيسبوك" الأمريكيتين لظاهرة خطيرة، ألا وهي "التزييف العميق" لمقاطع الفيديو.
أوضح تقرير منشور عبر موقع "إنغادجيت" التقني المتخصص أن شركتي "مايكروسوفت" و"فيسبوك" جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من أجل ابتكار تقنية لاكتشاف "التزييف العميق"، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.
وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن "التزييف العميق"، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق، باراك أوباما، يعتذر فيه عن أخطائه السابقة.
وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها "الأمثلة المتناقضة" في طل إطار فيديو.
وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه، التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة، لأنه تم تعديلها لنسخ وجه شخص حقيقي.
ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًا من خلال النظر إلى العناصر، التي لم يتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.
واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.