https://sarabic.ae/20250914/كيف-يمكن-للذكاء-الاصطناعي-أن-يحول-صور-الإنترنت-إلى-تهديدات-للأمن-السيبراني؟-1104842322.html
كيف يمكن للذكاء الاصطناعي أن يحول صور الإنترنت إلى تهديدات للأمن السيبراني؟
كيف يمكن للذكاء الاصطناعي أن يحول صور الإنترنت إلى تهديدات للأمن السيبراني؟
سبوتنيك عربي
يكشف بحث جديد عن ثغرات مقلقة في أنظمة الذكاء الاصطناعي، مبينا كيف يمكن للصور العادية على الإنترنت أن تشكل بوابات خفية للهجمات الإلكترونية. 14.09.2025, سبوتنيك عربي
2025-09-14T20:11+0000
2025-09-14T20:11+0000
2025-09-14T20:11+0000
مجتمع
العالم
علوم
ذكاء اصطناعي
اختراق
صور
https://cdn.img.sarabic.ae/img/07e9/09/0e/1104842063_0:512:2730:2048_1920x0_80_0_0_fc8e8ff91e4686a0168043a2173e8cea.jpg
يحدث الذكاء الاصطناعي ثورة في طريقة عمل الأنظمة الرقمية، مشغلا كل شيء بدءا من المساعدات الذكية وصولا إلى دفاعات الأمن السيبراني، مع ذلك، كشفت دراسة جديدة رائدة عن ثغرة مخيفة، حيث يمكن للمخترقين استغلال قدرة الذكاء الاصطناعي على تفسير الصور عن طريق تضمين برمجيات خبيثة داخل صور على الإنترنت تبدو بريئة. هذه الصور المنتشرة على نطاق واسع عبر وسائل التواصل الاجتماعي والمواقع الإلكترونية، يمكن أن تحمل سرا تعليمات خفية يعالجها الذكاء الاصطناعي ولا يستطيع البشر اكتشافها، حسب ما ورد في صحيفة "لايف ساينس". ينبع هذا التهديد من كيفية "رؤية" نماذج الذكاء الاصطناعي للصور بشكل مختلف عن رؤية البشر، بخلاف الإنسان الذي يتعرف على المشهد بصريا، يقسم الذكاء الاصطناعي الصور إلى وحدات بكسل وأنماط، ويعالجها رقميا. يتلاعب المخترقون ببيانات وحدات البكسل لتضمين "ضوضاء معادية" أو "محفزات وحدات بكسل" وهي أنماط مصممة لتضليل نماذج الذكاء الاصطناعي ودفعها إلى تنفيذ أوامر دون علم المستخدم، فعلى سبيل المثال، يمكن تصميم صورة تبدو غير ضارة بحيث تتيح، عند تحليلها بواسطة عميل ذكاء اصطناعي، الوصول إلى نظام ما من خلال ثغرات أمنية أو استخراج معلومات حساسة. قد يؤدي الذكاء الاصطناعي الممكن من إساءة تفسير إشارات الطرق أو الصور السريرية إلى حوادث خطيرة أو تشخيصات خاطئة، بينما قد تسمح جدران حماية الذكاء الاصطناعي المخترقة بحركة مرور ضارة أو سرقة بيانات. إن قابلية توسع متجه الهجوم هذا تضاعف الخطر، إذ يمكن لصورة واحدة متلاعب بها أن تنتشر بسرعة وهدوء عبر ملايين الأجهزة، ويتطلب التصدي لهذا التحدي تطويرا عاجلا لبروتوكولات أمان خاصة بالذكاء الاصطناعي قادرة على اكتشاف وتحييد عمليات التلاعب العدائية بالصور.ماسك: "الذكاء الاصطناعي" يصنع محاكاة قد يتحول فيها البشر إلى "شخصيات ثانوية"
https://sarabic.ae/20250913/اختراق-ضخم-لأهم-حزم-جافا-سكريبت-إن-بي-إم-يستهدف-محافظ-العملات-المشفرة-1104813442.html
https://sarabic.ae/20250402/ثورة-علمية-تقنية-جديدة-بالذكاء-الاصطناعي-تترجم-الأفكار-إلى-كلام-فوري-1099159635.html
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
الأخبار
ar_EG
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.sarabic.ae/img/07e9/09/0e/1104842063_0:0:2730:2048_1920x0_80_0_0_2c2c3d488b21327506f031a958da36ec.jpgسبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
العالم, علوم, ذكاء اصطناعي, اختراق, صور
العالم, علوم, ذكاء اصطناعي, اختراق, صور
كيف يمكن للذكاء الاصطناعي أن يحول صور الإنترنت إلى تهديدات للأمن السيبراني؟
يكشف بحث جديد عن ثغرات مقلقة في أنظمة الذكاء الاصطناعي، مبينا كيف يمكن للصور العادية على الإنترنت أن تشكل بوابات خفية للهجمات الإلكترونية.
يحدث الذكاء الاصطناعي ثورة في طريقة عمل الأنظمة الرقمية، مشغلا كل شيء بدءا من المساعدات الذكية وصولا إلى دفاعات الأمن السيبراني، مع ذلك، كشفت دراسة جديدة رائدة عن ثغرة مخيفة، حيث يمكن للمخترقين استغلال قدرة الذكاء الاصطناعي على تفسير الصور عن طريق تضمين برمجيات خبيثة داخل صور على الإنترنت تبدو بريئة.
هذه الصور المنتشرة على نطاق واسع عبر وسائل التواصل الاجتماعي والمواقع الإلكترونية، يمكن أن تحمل سرا تعليمات خفية يعالجها الذكاء الاصطناعي ولا يستطيع البشر اكتشافها، حسب ما ورد في صحيفة "
لايف ساينس".
تسمح هذه الآلية الخفية للمهاجمين بتجاوز مرشحات الأمان التقليدية واختراق أنظمة الذكاء الاصطناعي، مما قد يتيح لهم الوصول غير المصرح به إلى بيانات المستخدم، أو التحكم في الأجهزة، أو التسبب في خلل في التطبيقات التي تشغلها الذكاء الاصطناعي.
ينبع هذا التهديد من كيفية "رؤية" نماذج الذكاء الاصطناعي للصور بشكل مختلف عن رؤية البشر، بخلاف الإنسان الذي يتعرف على المشهد بصريا، يقسم الذكاء الاصطناعي الصور إلى وحدات بكسل وأنماط، ويعالجها رقميا.
يتلاعب المخترقون ببيانات وحدات البكسل لتضمين "ضوضاء معادية" أو "محفزات وحدات بكسل" وهي أنماط مصممة لتضليل نماذج الذكاء الاصطناعي ودفعها إلى تنفيذ أوامر دون علم المستخدم، فعلى سبيل المثال، يمكن تصميم صورة تبدو غير ضارة بحيث تتيح، عند تحليلها بواسطة عميل ذكاء اصطناعي، الوصول إلى نظام ما من خلال ثغرات أمنية أو استخراج معلومات حساسة.
نظرا لأن هذه التعديلات غير محسوسة للعين البشرية وتتجنب الكشف عنها بواسطة برامج مكافحة الفيروسات أو جدران الحماية، فإن مثل هذه الهجمات تمثل آفاقا جديدة في التهديدات السيبرانية، وتشمل الآثار قطاعات عديدة تعتمد على الذكاء الاصطناعي، بما في ذلك المركبات ذاتية القيادة، وتشخيصات الرعاية الصحية، وأدوات الأمن السيبراني، ومنصات الاتصالات الرقمية.
قد يؤدي الذكاء الاصطناعي الممكن من إساءة تفسير إشارات الطرق أو الصور السريرية إلى حوادث خطيرة أو تشخيصات خاطئة، بينما قد تسمح جدران حماية الذكاء الاصطناعي المخترقة بحركة مرور ضارة أو سرقة بيانات.
إن قابلية توسع متجه الهجوم هذا تضاعف الخطر، إذ يمكن لصورة واحدة متلاعب بها أن تنتشر بسرعة وهدوء عبر ملايين الأجهزة، ويتطلب التصدي لهذا التحدي تطويرا عاجلا لبروتوكولات أمان خاصة بالذكاء الاصطناعي قادرة على اكتشاف وتحييد عمليات التلاعب العدائية بالصور.