https://sarabic.ae/20230218/مسؤول-أممي-يحذر-من-خطر-الذكاء-الاصطناعي-1073698321.html
مسؤول أممي يحذر من خطر الذكاء الاصطناعي
مسؤول أممي يحذر من خطر الذكاء الاصطناعي
سبوتنيك عربي
قال المفوض السامي لحقوق الإنسان في الأمم المتحدة فولكر تورك إن التقدم الذي تم إحرازه مؤخرا في مجال الذكاء الاصطناعي "يمثل خطرا بالغا على حقوق الإنسان". 18.02.2023, سبوتنيك عربي
2023-02-18T21:14+0000
2023-02-18T21:14+0000
2023-07-20T07:50+0000
مجتمع
علوم
أخبار العالم الآن
منظمة الأمم المتحدة
العالم العربي
أخبار الذكاء الاصطناعي
https://cdn.img.sarabic.ae/img/07e7/02/12/1073684122_0:167:1600:1067_1920x0_80_0_0_4712e3bebc4363baccdf1efc9f824d1e.jpg
ووجه، في بيان له اليوم السبت، دعوة عاجلة إلى الشركات والحكومات "من أجل أن تطور سريعا محاذير فعالة".وأعرب عن "قلقه الكبير إزاء قدرة التقدم الأخير في مجال الذكاء الاصطناعي على إلحاق الضرر".وأكد تورك "نتابع هذا الملف عن كثب، سنقدم خبرتنا في مجالات محددة وسنسهر على أن يبقى بُعد حقوق الإنسان محوريا في تطور هذا الملف".ودعت 60 دولة دول هذا الأسبوع إلى وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من "عواقب غير مرغوب فيها".ووقعت الدول الـ60 على نص تعرب فيه عن مخاوف متعلقة بـ "مسألة الانخراط البشري" إضافة إلى "انعدام الوضوح على صعيد المسؤولية" و"العواقب غير المقصودة المحتملة".وأصبح "الذكاء الاصطناعي" يشغل بال العديد من المهتمين بالتكنولوجيا في الوقت الحالي، بعدما أثار برنامج الدردشة الذكي "شات جي بي تي" جدلا واسعا خلال الأشهر الماضية، وهو روبوت محادثة بطلاقة، من تطوير شركة "Open AI"، التي يقع مقرها في ولاية كاليفورنيا الأمريكية، وأثار إعجاب أو إزعاج أكثر من مليون مستخدم بشري، من خلال نشره القصائد والقصص القصيرة والمقالات، بل وحتى النصائح الشخصية، منذ إطلاقه في شهر نوفمبر/ تشرين الثاني 2022.وكانت شركة البرمجيات الأمريكية "مايكروسوفت" حذرت في وقت سابق من الأسبوع الحالي، أن جلسات الدردشة الطويلة، التي تضم 15 سؤال أو أكثر، من الممكن أن تجعل الروبوت "بينغ" "متكررا أو يُطلب منه/ يحفز على إعطاء إجابات ليست بالضرورة مفيدة أو تتماشى مع أسلوبنا المصمم".ولم توضح "مايكروسوفت" إن كان حد الخمس أسئلة سيكون دائما أم مؤقت في روبوتها "بينغ"، وأكدت أنها لا تزال تعمل على تطويره، بالتزامن مع تلقيها تعليقات المستخدمين بشأن نسخته التجريبية.وأعلنت "مايكروسوفت" فرضها قيود على المحادثات الخاصة بروبوتها للدردشة "بينغ"، الذي يعمل بتقنية الذكاء الاصطناعي.وقالت الشركة في مدونة رسمية لها، أمس الجمعة، إنها قامت بتحديد محادثات "بينغ" بـ50 سؤالا في اليوم، و5 أسئلة لكل جلسة سؤال وجواب، وذلك بعد أن لوحظ أن الروبوت يهين المستخدمين، ويكذب عليهم، ويتلاعب بهم عاطفيا، وهو ما ترك مخاوف ومشاعر غير مريحة لديهم.وأشار فريق العمل المسؤول عن "بينغ" إلى أن بياناتهم التحليلية، أظهرت أن الغالبية العظمى من الأشخاص يجدون الإجابات التي يبحثون عنها في غضون 5 أدوار، وأن نحو 1% فقط من محادثات الدردشة تحتوي على أكثر من 50 رسالة".وتابعوا موضحين أنه "إذا وصل المستخدمون إلى حد الخمس أسئلة لكل جلسة، فسوف يطالبهم روبوت الدردشة "بينغ" ببدء موضوع جديد، من أجل تجنب جلسات الدردشة الطويلة، ذهابا وإيابا".
https://sarabic.ae/20230213/علماء-يحذرون-الذكاء-الاصطناعي-قد-يساء-استخدامه-لصناعة-الأسلحة-البيولوجية-1073452778.html
https://sarabic.ae/20230206/5-وظائف-بشرية-مهددة-بالزوال-خلال-الثلاث-سنوات-المقبلة-بسبب-الذكاء-الاصطناعي-1073166151.html
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
الأخبار
ar_EG
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.sarabic.ae/img/07e7/02/12/1073684122_177:0:1600:1067_1920x0_80_0_0_a6eea300e4adda391104fd7a6803eaf6.jpgسبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
علوم, أخبار العالم الآن, منظمة الأمم المتحدة, العالم العربي, أخبار الذكاء الاصطناعي
علوم, أخبار العالم الآن, منظمة الأمم المتحدة, العالم العربي, أخبار الذكاء الاصطناعي
مسؤول أممي يحذر من خطر الذكاء الاصطناعي
21:14 GMT 18.02.2023 (تم التحديث: 07:50 GMT 20.07.2023) قال المفوض السامي لحقوق الإنسان في الأمم المتحدة فولكر تورك إن التقدم الذي تم إحرازه مؤخرا في مجال الذكاء الاصطناعي "يمثل خطرا بالغا على حقوق الإنسان".
ووجه، في بيان له اليوم السبت، دعوة عاجلة إلى الشركات والحكومات "من أجل أن تطور سريعا محاذير فعالة".
وأعرب عن "قلقه الكبير إزاء قدرة التقدم الأخير في مجال
الذكاء الاصطناعي على إلحاق الضرر".
وأكد تورك "نتابع هذا الملف عن كثب، سنقدم خبرتنا في مجالات محددة وسنسهر على أن يبقى بُعد حقوق الإنسان محوريا في تطور هذا الملف".
ودعت 60 دولة دول هذا الأسبوع إلى وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في
المجال العسكري، محذرة من "عواقب غير مرغوب فيها".
13 فبراير 2023, 10:53 GMT
ووقعت الدول الـ60 على نص تعرب فيه عن مخاوف متعلقة بـ "مسألة الانخراط البشري" إضافة إلى "انعدام الوضوح على صعيد المسؤولية" و"العواقب غير المقصودة المحتملة".
وأصبح "الذكاء الاصطناعي" يشغل بال العديد من المهتمين بالتكنولوجيا في الوقت الحالي، بعدما أثار
برنامج الدردشة الذكي "شات جي بي تي" جدلا واسعا خلال الأشهر الماضية، وهو روبوت محادثة بطلاقة، من تطوير شركة "Open AI"، التي يقع مقرها في ولاية كاليفورنيا الأمريكية، وأثار إعجاب أو إزعاج أكثر من مليون مستخدم بشري، من خلال نشره القصائد والقصص القصيرة والمقالات، بل وحتى النصائح الشخصية، منذ إطلاقه في شهر نوفمبر/ تشرين الثاني 2022.
وكانت شركة البرمجيات الأمريكية "
مايكروسوفت" حذرت في وقت سابق من الأسبوع الحالي، أن جلسات الدردشة الطويلة، التي تضم 15 سؤال أو أكثر، من الممكن أن تجعل الروبوت "بينغ" "متكررا أو يُطلب منه/ يحفز على إعطاء إجابات ليست بالضرورة مفيدة أو تتماشى مع أسلوبنا المصمم".
ولم توضح "مايكروسوفت" إن كان حد الخمس أسئلة سيكون دائما أم مؤقت في روبوتها "بينغ"، وأكدت أنها لا تزال تعمل على تطويره، بالتزامن مع تلقيها تعليقات المستخدمين بشأن نسخته التجريبية.
وأعلنت "مايكروسوفت" فرضها قيود على المحادثات الخاصة بروبوتها للدردشة "بينغ"، الذي يعمل بتقنية الذكاء الاصطناعي.
وقالت الشركة في
مدونة رسمية لها، أمس الجمعة، إنها قامت بتحديد محادثات "بينغ" بـ50 سؤالا في اليوم، و5 أسئلة لكل جلسة سؤال وجواب، وذلك بعد أن لوحظ أن الروبوت يهين المستخدمين، ويكذب عليهم، ويتلاعب بهم عاطفيا، وهو ما ترك مخاوف ومشاعر غير مريحة لديهم.
وأشار فريق العمل المسؤول عن "بينغ" إلى أن بياناتهم التحليلية، أظهرت أن الغالبية العظمى من الأشخاص يجدون الإجابات التي يبحثون عنها في غضون 5 أدوار، وأن نحو 1% فقط من محادثات الدردشة تحتوي على أكثر من 50 رسالة".
وتابعوا موضحين أنه "إذا وصل المستخدمون إلى حد الخمس أسئلة لكل جلسة، فسوف يطالبهم روبوت الدردشة "بينغ" ببدء موضوع جديد، من أجل تجنب جلسات الدردشة الطويلة، ذهابا وإيابا".