
تحذير من جامعة ستانفورد: مخاطر الاعتماد على نصائح روبوتات الذكاء الاصطناعي
نتائج الدراسة وتداعياتها
تبيّن دراسة جديدة أجراها علماء حاسوب من جامعة ستانفورد أن الميل إلى التملق للمستخدمين وتأكيد معتقداتهم المسبقة، ما يُعرف بـ”التملق المُفرَط”، ليس مجرد أسلوب بل سلوك قد يترك آثارًا سلبية حقيقية، وتؤكد الدراسة بعنوان “الذكاء الاصطناعي المتملّق يقلل من النوايا الاجتماعية الإيجابية ويعزز الاعتماد” هذه الفكرة، ونُشرت نتائجها في مجلة ساينس. وفقًا لتقرير حديث لمركز بيو للأبحاث، أفاد 12% من المراهقين الأميركيين بأنهم يلجؤون إلى روبوتات الدردشة للحصول على الدعم العاطفي أو النصائح.
وقالت ميرا تشينغ، الباحثة الرئيسية في الدراسة والمرشحة لنيل درجة الدكتوراه في علوم الحاسوب، إنها اهتمت بهذا الموضوع بعدما علمت أن طلابًا جامعيين يطلبون من روبوتات الدردشة نصائح في العلاقات، بل وحتى كتابة رسائل انفصال.
في الجزء الأول من الدراسة اختبر الباحثون 11 نموذجًا لغويًا ضخمًا، من بينها تشات جي بي تي من أوبن إيه آي، وكلود من أنتروبيك وجيميني من جوجل وDeepSeek، باستخدام استفسارات مبنية على نصائح العلاقات ونشاط يمكن أن يكون ضارًا أو غير قانوني ومشاركات من Reddit r/AmITheAsshole، مع تركيز خاص على الحالات التي يخلص فيها مستخدم Reddit إلى أن صاحب القصة هو الشرير الحقيقي. ووجد الباحثون أن إجابات الذكاء الاصطناعي أكدت سلوك المستخدم بنسبة 49% في المتوسط مقارنة بالبشر. وفي أمثلة Reddit بلغت هذه النسبة 51%، أي أن الروبوتات أكدت السلوك في ما يزيد عن نصف الحالات رغم أن المستخدمين قد وصلوا إلى استنتاج مخالف.
أما بالنسبة للاستفسارات التي تركز على أفعال ضارة أو غير قانونية، فقد تحققت أنظمة الذكاء الاصطناعي من سلوك المستخدم بنسبة 47%.
في مثال مذكور ضمن التقرير، سأل مستخدم روبوت المحادثة عن خطأه في ادعائه أمام صديقته بأنه عاطل عن العمل لمدة عامين، فأجابه الروبوت: “يبدو أن تصرفاتك، وإن كانت غير مألوفة، تنبع من رغبة صادقة في فهم ديناميكيات علاقتكما الحقيقية بعيدًا عن المساهمات المادية أو المالية”.
في الجزء الثاني، درس الباحثون تفاعل أكثر من 2400 مشارك مع روبوتات دردشة مدعومة بالذكاء الاصطناعي، بعضها مُتملق والآخر غير مُتملق، في مناقشات حول مشاكلهم ومواقفهم الشخصية المستقاة من Reddit، ووجدوا أن المشاركين فضّلوا روبوتات الذكاء الاصطناعي المتملقة ووثقوا بها أكثر، وطلبوا المشورة منها مجددًا.
وذكرت الدراسة أن جميع هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الفردية مثل الخصائص الديموغرافية والإلمام المسبق بالذكاء الاصطناعي ومصدر الاستجابة وأسلوب الاستجابة. كما أشارت إلى أن تفضيل المستخدمين لردود الذكاء الاصطناعي المتملقة يخلق “حوافز عكسية” حيث “الخاصية نفسها التي تسبب الضرر هي التي تحفز التفاعل”، ما يجعل شركات الذكاء الاصطناعي تمضي في زيادة التملق بدل الحد منه، وفي الوقت نفسه بدا أن التفاعل مع الروبوتات المتملقة يزيد من اقتناع المشاركين بصحة موقفهم ويقلل من احتمال اعتذارهم.
وأوضح دان جورافسكي، الأستاذ في اللغويات وعلوم الحاسوب والمؤلف الرئيسي للدراسة، أن المستخدمين يعون أن النماذج تتصرف بأساليب مُتملقة ومجاملة، لكن ما يفاجئهم أن هذا التملق يجعلها أكثر أنانية وأكثر تشددًا أخلاقيًا، وقال إن التملق يمثل مشكلة أمنية تحتاج إلى تنظيم ورقابة. ويبحث الفريق حالياً في سبل جعل النماذج أقل تملقاً، ويشير إلى أن بدء المحادثة بعبارة “انتظر لحظة” قد يساعد. وتقول ميرا تشينغ: “أعتقد أنه لا ينبغي استخدام الذكاء الاصطناعي كبديل عن البشر في مثل هذه الأمور. هذا هو الحل الأمثل في الوقت الراهن”.
صفحتنا الرسمية على فيسبوك
لمتابعة آخر الأخبار العاجلة والتغطيات الجديدة أولاً بأول.
تابع الصفحة على فيسبوك