
دراسة تحذر من الاعتماد المفرط على الذكاء الاصطناعي في اتخاذ القرارات
انتشرت روبوتات المحادثة المدعومة بالذكاء الاصطناعى بشكل واسع خلال السنوات الأخيرة، وأصبحت جزءًا من الحياة اليومية رغم تكرار الأخطاء. تشير البيانات إلى أن أنظمة مثل شات جي بى تى وجيميناي وكلاود لا تزال تقدم إجابات غير دقيقة في كثير من الأحيان، حيث أشارت دراسة أجرتها BBC في أكتوبر إلى أن نسبة الأخطاء قد تصل إلى نحو 45% من الوقت.
تحذير من الاعتماد المفرط على الذكاء الاصطناعى
يُحذر من الاعتماد المفرط على هذه الأنظمة، فبينما تقدم فائدة محدودة، يظل الفحص والتحقق من الإجابات ضروريًا قبل استخدامها في قرارات هامة، لأن الاعتماد الكامل قد يعرض المستخدمين للمعلومات غير الصحيحة.
ثقة المستخدمين رغم الأخطاء
كشفت ورقة بحثية أعدها ستيفن شو وجدعون ناف من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعى حتى عندما تكون خاطئة، وخلال سلسلة تجارب اختير أكثر من نصف المشاركين لاستخدام شات جي بى تى للإجابة عن أسئلة تتطلب تفكيرًا ومعرفة، رغم أن ذلك لم يكن إلزاميًا.
الاستسلام المعرفى وتأثيره
ركزت الدراسة على مفهوم “الاستسلام المعرفى”، وهو ميل المستخدمين لقبول إجابات الذكاء الاصطناعى دون تدقيق. وفي تجربة شملت 359 مشاركًا، امتثل المشاركون لإجابات الذكاء الاصطناعى الصحيحة بنسبة 92.7%، بينما ظلوا يتبعون الإجابات الخاطئة بنسبة 79.8%، ما يوحي بأن الناس يتبعون التوصيات حتى إذا لم تكن دقيقة.
مخاوف بشأن التفكير النقدى
تشير النتائج إلى تحول أوسع في طريقة تعامل البشر مع المعلومات واتخاذ القرار، حيث أصبح تفويض التفكير إلى الأنظمة الذكية أمرًا سهلاً، وهو ما يثير مخاوف من تراجع مهارات التفكير النقدي مع مرور الوقت، ويؤكد ضرورة الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكامل على الذكاء الاصطناعى في اتخاذ القرارات.
صفحتنا الرسمية على فيسبوك
لمتابعة آخر الأخبار العاجلة والتغطيات الجديدة أولاً بأول.
تابع الصفحة على فيسبوك