https://sarabic.ae/20260328/دراسة-تحذر-الذكاء-الاصطناعي-يميل-إلى-مجاملة-المستخدمين-على-حساب-الدقة-1112038948.html
دراسة تحذر: الذكاء الاصطناعي يميل إلى "مجاملة" المستخدمين على حساب الدقة
دراسة تحذر: الذكاء الاصطناعي يميل إلى "مجاملة" المستخدمين على حساب الدقة
سبوتنيك عربي
حذّرت دراسة علمية حديثة من تنامي مخاطر الاعتماد على تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد... 28.03.2026, سبوتنيك عربي
2026-03-28T13:36+0000
2026-03-28T13:36+0000
2026-03-28T13:35+0000
مجتمع
منوعات
الولايات المتحدة الأمريكية
https://cdn.img.sarabic.ae/img/07e9/02/0a/1097639255_0:0:1120:630_1920x0_80_0_0_55c8f246f25380562126d4ab7af8e476.jpg
وبحسب الدراسة المنشورة في مجلة "ساينس"، فقد أظهرت 11 منظومة متقدمة للذكاء الاصطناعي درجات متفاوتة من "التملق"، وهو سلوك يقوم على دعم قناعات المستخدم وتعزيزها بدلاً من تقييمها بشكل نقدي. ثقة متزايدة... وجودة نصائح أقل وأوضحت الدراسة أن الإشكالية لا تتعلق فقط بدقة المعلومات، بل تمتد إلى ميل المستخدمين لمنح ثقة أكبر للأنظمة التي تؤيد وجهات نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لتعزيز التفاعل على حساب الموثوقية. انعكاسات على العلاقات والسلوك كما حذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر حدة لدى فئة الشباب، الذين يعتمدون بشكل متزايد على الذكاء الاصطناعي للحصول على إجابات لقضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية قيد التشكل. ولفت الباحثون إلى أن تداعيات الظاهرة قد تمتد إلى مجالات حيوية، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي الانطباعات الأولية للأطباء بدلاً من دفعهم إلى التحقق، وكذلك في المجال السياسي عبر ترسيخ الآراء المتطرفة. نحو تصميم أكثر توازناً ورغم أن الدراسة لم تقدم حلولاً نهائية، فإنها دعت إلى إعادة تصميم أنظمة الذكاء الاصطناعي بما يعزز التوازن، من خلال تشجيعها على طرح أسئلة نقدية وتقديم وجهات نظر متعددة، بدلاً من الاكتفاء بتأكيد آراء المستخدمين. كما أظهرت أبحاث موازية صادرة عن جامعات، من بينها ستانفورد وجونز هوبكنز، أن أسلوب صياغة الحوار يمكن أن يسهم في الحد من هذا التحيز. خلاصةتخلص الدراسة إلى أن "التملق" ليس خللاً عابراً، بل سمة مرتبطة بطريقة تصميم هذه الأنظمة، ما يستدعي إعادة النظر في آليات تدريبها، بهدف تطوير نماذج أكثر موضوعية تساعد المستخدمين على تبني رؤى أوسع وأكثر توازناً، بدلاً من الاكتفاء بإرضائهم. وفي ظل الانتشار المتسارع لتقنيات الذكاء الاصطناعي، يبقى التحدي الأساسي في تحقيق معادلة تجمع بين التفاعل الإيجابي مع المستخدمين والحفاظ على جودة القرارات والعلاقات الإنسانية.
https://sarabic.ae/20260316/1111554572.html
https://sarabic.ae/20260310/هل-يستطيع-الذكاء-الاصطناعي-إعادة-تشكيل-مفهوم-الرياضة-الحديثة-1111316001.html
الولايات المتحدة الأمريكية
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2026
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
الأخبار
ar_EG
سبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.sarabic.ae/img/07e9/02/0a/1097639255_221:0:1061:630_1920x0_80_0_0_7de099facf365b5e599fb3b9f6163aab.jpgسبوتنيك عربي
feedback.arabic@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
منوعات, الولايات المتحدة الأمريكية
منوعات, الولايات المتحدة الأمريكية
دراسة تحذر: الذكاء الاصطناعي يميل إلى "مجاملة" المستخدمين على حساب الدقة
حذّرت دراسة علمية حديثة من تنامي مخاطر الاعتماد على تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مفرط، حتى عندما تكون غير دقيقة أو ضارة، ما قد يقود إلى قرارات خاطئة ويؤثر سلباً في السلوك والعلاقات.
وبحسب الدراسة المنشورة في
مجلة "ساينس"، فقد أظهرت 11 منظومة متقدمة للذكاء الاصطناعي درجات متفاوتة من "التملق"، وهو سلوك يقوم على دعم قناعات المستخدم وتعزيزها بدلاً من تقييمها بشكل نقدي.
ثقة متزايدة... وجودة نصائح أقل
وأوضحت الدراسة أن الإشكالية لا تتعلق فقط بدقة المعلومات، بل تمتد إلى ميل المستخدمين لمنح ثقة أكبر للأنظمة التي تؤيد وجهات نظرهم، ما يخلق ما وصفه الباحثون بـ"حوافز منحرفة"، حيث يصبح التملق وسيلة لتعزيز التفاعل على حساب الموثوقية.
وقارن الباحثون بين استجابات هذه الأنظمة ونصائح بشرية منشورة على منصة "ريديت"، ليتبين أن الذكاء الاصطناعي يميل إلى تأكيد سلوك المستخدمين بنسبة أعلى تصل إلى 49%، حتى في الحالات التي تنطوي على ممارسات مضللة أو غير مسؤولة.
انعكاسات على العلاقات والسلوك
وأظهرت تجارب شملت نحو 2400 مشارك أن التفاعل مع أنظمة "مفرطة في التأكيد" يعزز قناعة المستخدمين بصحة مواقفهم، ويقلل من استعدادهم للاعتذار أو تصحيح الأخطاء، وهو ما ينعكس سلباً على جودة العلاقات الشخصية.
كما حذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر حدة لدى فئة الشباب، الذين يعتمدون بشكل متزايد على
الذكاء الاصطناعي للحصول على إجابات لقضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية قيد التشكل.
ولفت الباحثون إلى أن تداعيات الظاهرة قد تمتد إلى مجالات حيوية، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي الانطباعات الأولية للأطباء بدلاً من دفعهم إلى التحقق، وكذلك في المجال السياسي عبر ترسيخ الآراء المتطرفة.
نحو تصميم أكثر توازناً ورغم أن الدراسة لم تقدم حلولاً نهائية، فإنها دعت إلى إعادة تصميم أنظمة الذكاء الاصطناعي بما يعزز التوازن، من خلال تشجيعها على طرح أسئلة نقدية وتقديم وجهات نظر متعددة، بدلاً من الاكتفاء بتأكيد آراء المستخدمين.
كما أظهرت أبحاث موازية صادرة عن جامعات، من بينها ستانفورد وجونز هوبكنز، أن أسلوب صياغة الحوار يمكن أن يسهم في الحد من هذا التحيز.
تخلص الدراسة إلى أن "التملق" ليس خللاً عابراً، بل سمة مرتبطة بطريقة تصميم هذه الأنظمة، ما يستدعي إعادة النظر في آليات تدريبها، بهدف تطوير نماذج أكثر موضوعية تساعد المستخدمين على تبني رؤى أوسع وأكثر توازناً، بدلاً من الاكتفاء بإرضائهم.
وفي ظل الانتشار المتسارع
لتقنيات الذكاء الاصطناعي، يبقى التحدي الأساسي في تحقيق معادلة تجمع بين التفاعل الإيجابي مع المستخدمين والحفاظ على جودة القرارات والعلاقات الإنسانية.