مجتمع

مسؤول أممي يحذر من خطر الذكاء الاصطناعي

قال المفوض السامي لحقوق الإنسان في الأمم المتحدة فولكر تورك إن التقدم الذي تم إحرازه مؤخرا في مجال الذكاء الاصطناعي "يمثل خطرا بالغا على حقوق الإنسان".
Sputnik
ووجه، في بيان له اليوم السبت، دعوة عاجلة إلى الشركات والحكومات "من أجل أن تطور سريعا محاذير فعالة".
وأعرب عن "قلقه الكبير إزاء قدرة التقدم الأخير في مجال الذكاء الاصطناعي على إلحاق الضرر".
وأكد تورك "نتابع هذا الملف عن كثب، سنقدم خبرتنا في مجالات محددة وسنسهر على أن يبقى بُعد حقوق الإنسان محوريا في تطور هذا الملف".
ودعت 60 دولة دول هذا الأسبوع إلى وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من "عواقب غير مرغوب فيها".
مجتمع
علماء يحذرون: "الذكاء الاصطناعي" قد يساء استخدامه لصناعة الأسلحة البيولوجية
ووقعت الدول الـ60 على نص تعرب فيه عن مخاوف متعلقة بـ "مسألة الانخراط البشري" إضافة إلى "انعدام الوضوح على صعيد المسؤولية" و"العواقب غير المقصودة المحتملة".
وأصبح "الذكاء الاصطناعي" يشغل بال العديد من المهتمين بالتكنولوجيا في الوقت الحالي، بعدما أثار برنامج الدردشة الذكي "شات جي بي تي" جدلا واسعا خلال الأشهر الماضية، وهو روبوت محادثة بطلاقة، من تطوير شركة "Open AI"، التي يقع مقرها في ولاية كاليفورنيا الأمريكية، وأثار إعجاب أو إزعاج أكثر من مليون مستخدم بشري، من خلال نشره القصائد والقصص القصيرة والمقالات، بل وحتى النصائح الشخصية، منذ إطلاقه في شهر نوفمبر/ تشرين الثاني 2022.
وكانت شركة البرمجيات الأمريكية "مايكروسوفت" حذرت في وقت سابق من الأسبوع الحالي، أن جلسات الدردشة الطويلة، التي تضم 15 سؤال أو أكثر، من الممكن أن تجعل الروبوت "بينغ" "متكررا أو يُطلب منه/ يحفز على إعطاء إجابات ليست بالضرورة مفيدة أو تتماشى مع أسلوبنا المصمم".
ولم توضح "مايكروسوفت" إن كان حد الخمس أسئلة سيكون دائما أم مؤقت في روبوتها "بينغ"، وأكدت أنها لا تزال تعمل على تطويره، بالتزامن مع تلقيها تعليقات المستخدمين بشأن نسخته التجريبية.
مجتمع
5 وظائف بشرية مهددة بالزوال خلال الثلاث سنوات المقبلة بسبب "الذكاء الاصطناعي"
وأعلنت "مايكروسوفت" فرضها قيود على المحادثات الخاصة بروبوتها ‏للدردشة "بينغ"، الذي يعمل بتقنية الذكاء الاصطناعي.‏
وقالت الشركة في مدونة رسمية لها، أمس الجمعة، إنها قامت بتحديد محادثات "بينغ" بـ50 سؤالا في اليوم، و5 أسئلة لكل جلسة سؤال وجواب، وذلك بعد أن لوحظ أن الروبوت يهين المستخدمين، ويكذب عليهم، ويتلاعب بهم عاطفيا، وهو ما ترك مخاوف ومشاعر غير مريحة لديهم.
وأشار فريق العمل المسؤول عن "بينغ" إلى أن بياناتهم التحليلية، أظهرت أن الغالبية العظمى من الأشخاص يجدون الإجابات التي يبحثون عنها في غضون 5 أدوار، وأن نحو 1% فقط من محادثات الدردشة تحتوي على أكثر من 50 رسالة".
وتابعوا موضحين أنه "إذا وصل المستخدمون إلى حد الخمس أسئلة لكل جلسة، فسوف يطالبهم روبوت الدردشة "بينغ" ببدء موضوع جديد، من أجل تجنب جلسات الدردشة الطويلة، ذهابا وإيابا".
مناقشة