
مايكروسوفت تكشف عن أساليب استغلال خبيثة تستهدف مساعدي الذكاء الاصطناعي
تطور مقلق في أمان الذكاء الاصطناعي وخطر التلاعب بالنماذج اللغوية
أعلنت شركة مايكروسوفت عن اكتشاف تقنيات معقدة يستخدمها القراصنة لخداع أنظمة الذكاء الاصطناعي وتجاوز بروتوكولات الأمان، مما يؤدي إلى تسرب بيانات حساسة وارتفاع مخاطر الأمن المؤسسي.
تعتمد هذه الهجمات على إساءة استخدام الأوامر النصية لتوجيه المساعد الذكي نحو تنفيذ أمور خبيثة وتجاوز القيود الأمنية.
تسلط الضوء على الثغرات الكامنة في نماذج الذكاء الاصطناعي التوليدي التي أصبحت جزءًا أساسيًا من بيئة العمل، وتبرز الحاجة إلى دفاعات ديناميكية تقيس النصوص فورًا لمنع أي استغلال قبل وقوعه.
التلاعب بالنماذج اللغوية
وثّقت تقارير عدة هجمات تمكن فيها المهاجمون من التلاعب بالنماذج اللغوية لاستخراج معلومات سرية، وتعمل شركات كبرى على تطوير آليات دفاع فاعلة تحلل الطلبات النصية بشكل فوري لمنع المحاولات قبل وقوعها.
مخاطر الهندسة الاجتماعية الذكية
تستغل الهندسة الاجتماعية قدرة الذكاء الاصطناعي على فهم اللغة الطبيعية لإحداث اختراق داخلي، وتبرز الحاجة لبناء جدران حماية ذكية تقرأ نوايا المستخدم وتمنع الهجمات المعقدة لحظيًا.