مجتمع

دراسة تحذر: الذكاء الاصطناعي يميل إلى "مجاملة" المستخدمين على حساب الدقة

حذّرت دراسة علمية حديثة من تنامي مخاطر الاعتماد على تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مفرط، حتى عندما تكون غير دقيقة أو ضارة، ما قد يقود إلى قرارات خاطئة ويؤثر سلباً في السلوك والعلاقات.
Sputnik
وبحسب الدراسة المنشورة في مجلة "ساينس"، فقد أظهرت 11 منظومة متقدمة للذكاء الاصطناعي درجات متفاوتة من "التملق"، وهو سلوك يقوم على دعم قناعات المستخدم وتعزيزها بدلاً من تقييمها بشكل نقدي.
وسائط متعددة
"اختراعات مذهلة" تؤسس للذكاء الاصطناعي

ثقة متزايدة... وجودة نصائح أقل

وأوضحت الدراسة أن الإشكالية لا تتعلق فقط بدقة المعلومات، بل تمتد إلى ميل المستخدمين لمنح ثقة أكبر للأنظمة التي تؤيد وجهات نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لتعزيز التفاعل على حساب الموثوقية.

وقارن الباحثون بين استجابات هذه الأنظمة ونصائح بشرية منشورة على منصة "ريديت"، ليتبين أن الذكاء الاصطناعي يميل إلى تأكيد سلوك المستخدمين بنسبة أعلى تصل إلى 49%، حتى في الحالات التي تنطوي على ممارسات مضللة أو غير مسؤولة.

انعكاسات على العلاقات والسلوك

وأظهرت تجارب شملت نحو 2400 مشارك أن التفاعل مع أنظمة "مفرطة في التأكيد" يعزز قناعة المستخدمين بصحة مواقفهم، ويقلل من استعدادهم للاعتذار أو تصحيح الأخطاء، وهو ما ينعكس سلباً على جودة العلاقات الشخصية.

كما حذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر حدة لدى فئة الشباب، الذين يعتمدون بشكل متزايد على الذكاء الاصطناعي للحصول على إجابات لقضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية قيد التشكل.
ولفت الباحثون إلى أن تداعيات الظاهرة قد تمتد إلى مجالات حيوية، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي الانطباعات الأولية للأطباء بدلاً من دفعهم إلى التحقق، وكذلك في المجال السياسي عبر ترسيخ الآراء المتطرفة.
هل يستطيع الذكاء الاصطناعي إعادة تشكيل مفهوم الرياضة الحديثة؟
نحو تصميم أكثر توازناً ورغم أن الدراسة لم تقدم حلولاً نهائية، فإنها دعت إلى إعادة تصميم أنظمة الذكاء الاصطناعي بما يعزز التوازن، من خلال تشجيعها على طرح أسئلة نقدية وتقديم وجهات نظر متعددة، بدلاً من الاكتفاء بتأكيد آراء المستخدمين.
كما أظهرت أبحاث موازية صادرة عن جامعات، من بينها ستانفورد وجونز هوبكنز، أن أسلوب صياغة الحوار يمكن أن يسهم في الحد من هذا التحيز.

خلاصة

تخلص الدراسة إلى أن "التملق" ليس خللاً عابراً، بل سمة مرتبطة بطريقة تصميم هذه الأنظمة، ما يستدعي إعادة النظر في آليات تدريبها، بهدف تطوير نماذج أكثر موضوعية تساعد المستخدمين على تبني رؤى أوسع وأكثر توازناً، بدلاً من الاكتفاء بإرضائهم.
وفي ظل الانتشار المتسارع لتقنيات الذكاء الاصطناعي، يبقى التحدي الأساسي في تحقيق معادلة تجمع بين التفاعل الإيجابي مع المستخدمين والحفاظ على جودة القرارات والعلاقات الإنسانية.
مناقشة