منوعات

دراسة تحذر من الإفراط في الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات

انتشر استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بشكل واسع خلال السنوات القليلة الماضية، وأصبحت جزءاً من الحياة اليومية رغم ما تعانيه من أخطاء متكررة.

تشير البيانات إلى أن أنظمة مثل شات جي بي تى وجيميناي وكلاود لا تزال تقدم إجابات غير دقيقة في كثير من الأحيان؛ فقد أظهرت دراسة أُجريت لصالح BBC في أكتوبر أن نسبة الأخطاء قد تصل إلى نحو 45% من الإجابات التي تقدمها هذه الأنظمة.

ثقة المستخدمين رغم الأخطاء

كشفت ورقة بحثية حديثة أعدها الباحث ستيفن شو وأستاذ التسويق جدعون ناف من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة. وفي سلسلة تجارب، اختار أكثر من 50% من المشاركين استخدام شات جي بي تى للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أن الاختيار لم يكن الزامياً.

الاستسلام المعرفي وتأثيره

ركزت الدراسة على مفهوم “الاستسلام المعرفي”، وهو ميل المستخدمين لقبول إجابات الذكاء الاصطناعي دون تدقيق. وفي تجربة شملت 359 مشاركاً، التزم المشاركون بإجابات الذكاء الاصطاني الصحيحة بنسبة 92.7%، بينما استمروا في اتباع الإجابات الخاطئة بنسبة 79.8%، مما أظهر اتباع التوصيات حتى عندما تكون غير دقيقة في نحو أربعة من كل خمسة تفاعل.

مخاوف بشأن التفكير النقدي

تشير النتائج إلى تحول أوسع في طريقة تعامل البشر مع المعلومات واتخاذ القرار، حيث أصبح من السهل تفويض عملية التفكير إلى الأنظمة الذكية، وهو ما قد يؤدي إلى تراجع مهارات التفكير النقدي مع مرور الوقت، ما يؤكد أهمية الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات.

تابعنا على

صفحتنا الرسمية على فيسبوك

لمتابعة آخر الأخبار العاجلة والتغطيات الجديدة أولاً بأول.

تابع الصفحة على فيسبوك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى