وأكد التقرير أنه رغم وجود العديد من التطبيقات الإيجابية للذكاء الصناعي، فإنه يمكن استخدام هذه التكنولوجيا في أمور سلبية.
وقال خبراء إن تحويل الطائرات بدون طيار إلى صواريخ، واستخدام مقاطع الفيديو الزائفة للتلاعب بالرأي العام، والقرصنة الآلية ليست سوى ثلاثة تهديدات ناتجة عن وصول الذكاء الاصطناعي للأيدي الخاطئة.
وقال شاهار أفين، من مركز دراسة المخاطر الوجودية التابع لجامعة كامبريدج، إن التقرير ركز على مجالات الذكاء الصناعي المتاحة الآن، أو المحتمل أن تكون متاحة في غضون خمس سنوات، بدلا من النظر إلى المستقبل البعيد.
وذكر أفين عددا من الاحتمالات التي قد تتحول فيها هذه التكنولوجيا إلى "أغراض خبيثة" في المستقبل القريب.
وبحسب الخبير، يمكن لشخص خبيث شراء طائرة دون طيار (درون)، وتزويدها بنظام للتعرف على الوجوه لاستهداف شخص بعينه، كما يمكن برمجة أجهزة الروبوت في مقاطع فيديو "مزيفة" محاكية للواقع بغرض الاستغلال السياسي.
وكذلك يمكن للمقرصنين استخدام المزج الخطابي لانتحال صفة الضحايا.
وأضاف: "في الغالب، لا تصل نظم الذكاء الصناعي إلى مستويات الأداء البشري فحسب، بل تفوقها كثيرا".
وقال سين أو هيجيرتيه، المدير التنفيذي لمركز دراسة المخاطر الوجودية وأحد المؤلفين المشاركين في التقرير: "الذكاء الصناعي غير قواعد اللعبة، وقد تخيل هذا التقرير ما يمكن أن يبدو عليه العالم في السنوات الخمس إلى العشر المقبلة".