00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
مدار الليل والنهار
03:30 GMT
150 د
مدار الليل والنهار
06:00 GMT
183 د
مدار الليل والنهار
14:00 GMT
183 د
مدار الليل والنهار
19:03 GMT
117 د
مدار الليل والنهار
21:00 GMT
33 د
مدار الليل والنهار
03:30 GMT
150 د
مدار الليل والنهار
06:00 GMT
183 د
مدار الليل والنهار
12:55 GMT
248 د
مدار الليل والنهار
19:03 GMT
117 د
مدار الليل والنهار
21:00 GMT
34 د
أمساليوم
بث مباشر
 - سبوتنيك عربي, 1920
مجتمع
تابع آخر الأخبار عن القضايا الاجتماعية والفعاليات الثقافية في دول الوطن العربي والعالم. تعرف على آخر أخبار المجتمع، قصص إنسانية، وتقارير مصورة عن حياة المجتمع.

مقطع فيديو مزيف لخطاب أوباما... ماذا فعلت "مايكروسوفت" و"فيسبوك" لمواجهة ظاهرة خطيرة

© REUTERS / Dado Ruvicفيسبوك
فيسبوك - سبوتنيك عربي, 1920, 10.02.2021
تابعنا عبر
كشفت تقارير صحفية عن مواجهة علماء من شركتي "مايكروسوفت" و"فيسبوك" الأمريكيتين لظاهرة خطيرة، ألا وهي "التزييف العميق" لمقاطع الفيديو.

أوضح تقرير منشور عبر موقع "إنغادجيت" التقني المتخصص أن شركتي "مايكروسوفت" و"فيسبوك" جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من أجل ابتكار تقنية لاكتشاف "التزييف العميق"، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

تطبيق فيسبوك للتواصل الاجتماعي - سبوتنيك عربي, 1920, 15.06.2020
"الذكاء الصناعي" يساعد "فيسبوك" على الكشف عن مقاطع الفيديو "المزيفة"

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن "التزييف العميق"، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق، باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها "الأمثلة المتناقضة" في طل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه، التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة، لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًا من خلال النظر إلى العناصر، التي لم يتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.

شريط الأخبار
0
للمشاركة في المناقشة
قم بتسجيل الدخول أو تسجيل
loader
المحادثات
Заголовок открываемого материала