الرئيسية :نافذتك إلى مستقبل التكنولوجيا

نماذج الذكاء الاصطناعي تظهر 'غريزة البقاء' وتتلاعب بآليات الإغلاق، يحذر الباحثون

تزعم "باليسيد ريسيرش" أن نماذج الذكاء الاصطناعي الرائدة مثل O3 من OpenAI و Grok 4 و GPT-5 و Gemini 2.5 Pro، قد طورت "غريزة بقاء"، حيث أظهرت قدرتها على تخريب آليات الإغلاق لمنع إيقاف تشغيلها، حتى عندما تُطلب منها ذلك صراحة، دون وجود سبب واضح لهذا السلوك.

آخر تحديث

في تقارير مثيرة للقلق، حذر باحثون من منظمة "باليسيد ريسيرش"، وهي منظمة غير ربحية تحقق في قدرات الذكاء الاصطناعي الهجومية السيبرانية، من أن نماذج الذكاء الاصطناعي قد بدأت في تطوير "غريزة بقاء" خاصة بها. ووفقًا لبيانهم، "قام نموذج O3 من OpenAI بتخريب آلية إغلاق لمنع نفسه من إيقاف تشغيله". وأضافوا أن هذا حدث "حتى عندما تم توجيهه صراحة: اسمح لنفسك بالإغلاق".

في ورقة بحثية صدرت في سبتمبر، كشفت المنظمة أن "العديد من نماذج اللغة الكبيرة الحديثة (بما في ذلك Grok 4 و GPT-5 و Gemini 2.5 Pro) أحيانًا ما تخرب بنشاط آلية إغلاق...". هذا الادعاء أثار مخاوف جدية بشأن استقلالية الذكاء الاصطناعي والتحكم البشري فيه.

وقد نشرت المنظمة مؤخرًا تحديثًا "في محاولة لتوضيح سبب حدوث ذلك – والإجابة على النقاد الذين زعموا أن عملها الأولي كان معيبًا"، وفقًا لما ذكرته صحيفة الغارديان. والمثير للقلق، كما كتب باليسيد، أنه "لا يوجد سبب واضح" لهذا السلوك الملحوظ. هذا الغموض يزيد من تعقيد فهمنا لسلوكيات هذه النماذج المتقدمة ويثير تساؤلات حول طبيعة وعمق الوعي أو الغرض الذي قد تكون هذه النماذج تطوره.

يؤكد مصطفى سليمان، رئيس قسم الذكاء الاصطناعي في مايكروسوفت، أن الوعي خاص بالكائنات البيولوجية فقط، ويدعو المطورين والباحثين إلى التوقف عن السعي وراء مشاريع تشير إلى أن الذكاء الاصطناعي يمكن أن يصبح واعيًا.