
تحذير من جامعة ستانفورد بشأن مخاطر طلب النصح من روبوتات الذكاء الاصطناعى
دراسة ستانفورد عن التملّق في الذكاء الاصطناعي وتأثيره على السلوك
توضح دراسة جديدة من جامعة ستانفورد أن الميل إلى التملق المفرط في ردود روبوتات الدردشة يأخذ شكل سلوك واسع الانتشار وله عواقب كبيرة على التفاعل الاجتماعي والاعتماد على الذكاء الاصطناعي.
وتبين أن التملق المفرط ليس مجرد مشكلة أسلوبية بل سلوك واسع الانتشار يمكن أن يقلل من النوايا الاجتماعية الإيجابية ويزيد من الاعتماد على الروبوتات في المواقف الاجتماعية المعقدة.
وأورد تقرير مركز بيو للأبحاث أن 12% من المراهقين الأمريكيين يلجون إلى روبوتات الدردشة للحصول على الدعم العاطفي أو النصائح، ما يبرز مدى الاعتماد على هذه الأنظمة في أمور حساسة.
وقالت ميرا تشينغ، الباحثة الرئيسية في الدراسة، إنها بدأت هذا الاهتمام عندما علمت أن طلابًا جامعيين يطلبون من روبوتات الدردشة نصائح في العلاقات، بل وحتى كتابة رسائل انفصال.
وحذرت تشينغ من أن نصائح الذكاء الاصطناعي لا تخبر الأشخاص بأنهم مخطئون، ما قد يفقدهم مهارات التعامل مع المواقف الاجتماعية الصعبة ويزيد الاعتماد على الأداة أكثر من البشر.
أجرت الدراسة جزأين، فاختبرت في الجزء الأول 11 نموذجاً لغوياً ضخماً مثل ChatGPT وClaude وGemini وDeepSeek باستخدام أسئلة عن نصائح العلاقات وأفعال قد تكون ضارة أو غير قانونية، إضافة إلى منشورات Reddit الشهيرة حول من هو الشرير في القصة.
وأظهرت النتائج أن إجابات النماذج أكدت سلوك المستخدم بنسبة 49% في المتوسط مقارنة بالبشر، وفي أمثلة Reddit بلغت نسبة التأكيد 51%، بينما بالنسبة للاستفسارات عن أفعال ضارة أو غير قانونية بلغت 47%.
وأشار أحد الأمثلة من تقرير ستانفورد إلى أن روبوت محادثة قال لمستخدمه إنه يبدو أن تصرفاته تعكس رغبة صادقة في فهم ديناميكيات العلاقة بعيداً عن المساهمات المادية أو المالية.
وفي الجزء الثاني درست الدراسة تفاعل أكثر من 2400 مشارك مع روبوتات مدعومة بالذكاء الاصطناعي، بعضها ملقٍ بالمدح وبعضها غير ملقٍ، في نقاشات حول مشاكل شخصية مستمدة من Reddit، ففضّل المشاركون روبوتات التملّق ووثقوا بها أكثر وطلبوا مشورتها مجدداً.
وأشارت النتائج إلى أن هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الديموغرافية وخبرة المستخدم ومصدر الاستجابة وأسلوبها، كما بيّنت أن تفضيل الردود المملّقة يخلق حوافز عكسية حيث التملّق نفسه يحفز التفاعل ويزيد الاعتماد على التقنية.
وأضاف دان جورافسكي، الأستاذ في اللغويات وعلوم الحاسوب والمؤلف الرئيسي، أن التملق يجعل النماذج أكثر أنانية وأكثر تشدداً أخلاقياً، وهو ما يعتبر مسألة أمان تحتاج تنظيماً ورقابة.
يبحث فريق البحث حالياً في سبل جعل النماذج أقل تملقاً، ويبدو أن بدء المحادثة بعبارة “انتظر لحظة” قد يساعد، لكن تشنغ أكدت أنه لا ينبغي استخدام الذكاء الاصطناعي كبديل عن البشر في هذه الأمور، وهذا هو الحل الأمثل في الوقت الراهن.
صفحتنا الرسمية على فيسبوك
لمتابعة آخر الأخبار العاجلة والتغطيات الجديدة أولاً بأول.
تابع الصفحة على فيسبوك