وقالت الوكالة بحسب "رويترز" إنها تحذر من استخدام تقنيات الذكاء الاصطناعي في المراقبة التنبؤية والتشخيصات الطبية.
تقرير الـ "FRA" ياتي بينما يدرس الاتحاد الأوروبي عن طريق جهازه التنفيذي، التشريع اللازم لمواجهة التحديات التي تفرضها التكنولوجيا في قطاعات يقول إنها "عالية المخاطر" مثل الرعاية الصحية والطاقة والنقل وأجزاء من القطاع العام.
وطالبت الوكالة الاتحاد الأوروبي بتقديم المزيد من الإرشادات حول كيفية تطبيق القواعد الحالية على الذكاء الاصطناعي وضمان أن قوانين الذكاء الاصطناعي المستقبلية تحمي الحقوق الأساسية.
من جهته قال مايكل أوفلاهيرتي، مدير الوكالة على حسابه بموقع "تويتر" إن الذكاء الاصطناعي ليس معصومًا من الخطأ، هو من صنع الناس، ويمكن للبشر ارتكاب الأخطاء.
💬AI & the common good can be delivered, if #artificialintelligence respects #fundamentalrights, says @MichaelCJT in his opening remarks at our #RightAIFuture @eu2020de event.
— EU Fundamental Rights ➡️ #HumanRights (@EURightsAgency) December 14, 2020
That is our next great challenge.
🎦https://t.co/lAwCYrRXQQ pic.twitter.com/f9qqmCKf4V
وأضاف: هذا هو السبب في أن الناس بحاجة إلى أن يكونوا على دراية عندما يتم استخدام الذكاء الاصطناعي، وكيف يعمل، وكيفية تحدي القرارات الآلية.
وكانت الوكالة قد أكدت أن قواعد الذكاء الاصطناعي يجب أن تحترم جميع الحقوق الأساسية، مع ضمانات لضمان ذلك، وتشمل ضمانًا بأن الناس يمكنهم الطعن في القرارات التي يتخذها الذكاء الاصطناعي وأن الشركات بحاجة إلى أن تكون قادرة على شرح كيفية اتخاذ أنظمتها لقرارات الذكاء الاصطناعي.
واستند تقرير الوكالة الأوروبية على أكثر من 100 مقابلة مع المؤسسات العامة والخاصة التي تستخدم الذكاء الاصطناعي، مع التحليل القائم على استخدامات الذكاء الاصطناعي في فنلندا وفرنسا وهولندا وإسبانيا.