
مايكروسوفت تكشف عن أساليب استغلال خبيثة تستهدف مساعدى الذكاء الاصطناعى
أعلنت شركة مايكروسوفت اليوم عن اكتشاف مجموعة تقنيات معقدة يستخدمها القراصنة لخداع أنظمة الذكاء الاصطناعي وتجاوز بروتوكولات الأمان عبر توجيه المساعد الذكي لأوامر خبيثة تسرب بيانات حساسة، وتسلط هذه الاكتشافات الضوء على الثغرات الأمنية الكامنة في نماذج الذكاء الاصطناعي التوليدي التي أصبحت جزءاً لا يتجزأ من بيئة العمل المؤسسية.
تعتمد هذه الهجمات على ما يُعرف بإساءة استخدام الأوامر النصية، حيث يتم توجيه المساعد الذكي لتجاوز بروتوكولات الأمان وتنفيذ أوامر خبيثة تسرب بيانات حساسة، وتبرز هذه التطورات مخاطر ثغرات في نماذج الذكاء الاصطناعي التوليدي في مكان العمل.
التلاعب بالنماذج اللغوية
وثّقت مايكروسوفت عدداً من الهجمات التي استغل فيها المهاجمون النماذج اللغوية لاستخراج معلومات سرية تخص العملاء، وتعمل الشركة حالياً على تطوير آليات دفاعية قادرة على تحليل الأوامر النصية فوريًا لمنع الهجمات قبل وقوعها.
يأتي ذلك في وقت تشهد فيه المؤسسات اعتماداً متزايداً على المساعدين الأذكياء لإدارة المهام اليومية، ما يجعل السياق الأمني لهذه التقنيات تحديًا أمام المطورين لابتكار حلول حماية ديناميكية تتطور مع أساليب الهجوم لضمان بقاء الذكاء الاصطناعي أداة آمنة وموثوقة.
مخاطر الهندسة الاجتماعية الذكية
تستغل هذه الهجمات قدرة الذكاء الاصطناعي على فهم اللغة الطبيعية كأداة اختراق داخلية بدلاً من مساعد آمن، وهو ما يبرز حاجة الصناعة لبناء جدران حماية ذكية تقرأ نوايا المستخدمين وتمنع الهجمات المعقدة لحظيًا.