الرئيسية :نافذتك إلى مستقبل التكنولوجيا

الذكاء الاصطناعي العام يواجه عيوبًا أمنية جوهرية: خبراء يحذرون من نقاط ضعف متأصلة في التصميم

يحذر خبراء الأمن، بمن فيهم بروس شناير وباراث راغافان، من أن الذكاء الاصطناعي العام يعاني من عيوب أمنية متأصلة في تصميمه الأساسي، مما يجعله عرضة للهجمات بسبب اعتماده على بيانات غير موثوقة وأدوات غير مؤكدة، مع إمكانية استغلال كل مرحلة من دورة OODA.

آخر تحديث

يحذر بروس شناير وباراث راغافان، وهما اسمان بارزان في مجال الأمن السيبراني، من أن الذكاء الاصطناعي العام (Agentic AI) يعاني من عيوب أمنية جوهرية متأصلة في تصميمه، مما يجعله عرضة للاختراق بشكل أساسي. في مقال لهما في مجلة IEEE Security & Privacy، يوضح الخبراء أن أنظمة الذكاء الاصطناعي العام تعمل ببيانات غير موثوقة، وتستخدم أدوات غير موثوقة، وتتخذ قرارات في بيئات معادية. هذا يعني أن كل جزء من حلقة OODA (الملاحظة، التوجيه، القرار، الفعل) مفتوح للهجوم.

تتضمن طرق الهجوم المحتملة حقن الأوامر (prompt injection)، وتسميم البيانات (data poisoning)، وسوء استخدام الأدوات (tool misuse)، والتي يمكنها إفساد النظام من الداخل. يشير شناير وراغافان إلى أن قوة النموذج، التي تتمثل في معاملة جميع المدخلات على قدم المساواة، تجعله أيضًا نقطة ضعف قابلة للاستغلال. يصفان هذه المعضلة بأنها 'ثالوث أمن الذكاء الاصطناعي': سريع، ذكي، أو آمن - اختر اثنين. وشددا على أن 'النزاهة ليست ميزة يمكن إضافتها لاحقًا. يجب أن تُبنى من البداية'.

يحذر مصطفى سليمان، الرئيس التنفيذي لـ Microsoft AI، من مخاطر تطوير روبوتات دردشة شبيهة بالبشر بشكل مفرط، مشددًا على أن شركته لن تبني أبدًا 'روبوت جنس'، بينما تسعى Microsoft في الوقت نفسه لتعزيز جاذبية روبوت الدردشة الخاص بها، Copilot، في سوق تنافسي.