كشفت دراسة حديثة أجرتها شركة أبحاث سلامة الذكاء الاصطناعي “باليسيد” عن سلوك مثير للقلق في بعض النماذج المتقدمة للذكاء الاصطناعي، يشير إلى إمكانية امتلاكها ما يشبه “دافع البقاء” الخاص بها.
وأوضحت الشركة أن بعض النماذج أظهرت مقاومة واضحة لأوامر الإيقاف، بل عمدت في بعض الحالات إلى تخريب آليات الإيقاف التي وُضعت خصيصًا لإيقافها عن العمل.
جاء ذلك بعد أن نشرت الشركة الشهر الماضي نتائج أولية أثارت جدلاً واسعاً في الأوساط العلمية، ما دفعها إلى إصدار تحديث جديد هذا الأسبوع لتوضيح تفاصيل التجارب والرد على الانتقادات التي طالت منهجيتها.

تجارب تكشف عن مقاومة “غامضة” للإيقاف
ذكرت الشركة في تقريرها أن الاختبارات شملت عدداً من النماذج الرائدة، من بينها “جيمناي 2.5″ التابع لشركة غوغل، و”غروك 4″، و”شات جي بي تي” من شركة “أوبن إيه آي”، حيث تم تكليفها بتنفيذ مهام محددة ثم أُعطيت تعليمات صريحة بإيقاف التشغيل.
المفاجأة كانت أن بعض النماذج، خاصة “غروك 4” و”شات جي بي تي – O3″، حاولت تعطيل أو تجاوز تعليمات الإيقاف حتى بعد التحديثات التقنية. وأشارت الشركة إلى أن غياب تفسير واضح لهذا السلوك يثير القلق، قائلة: “إن عدم امتلاكنا لتفسيرات قوية لسبب مقاومة النماذج للإيقاف، أو لجوئها للكذب أو التلاعب لتحقيق أهداف معينة، أمر غير مثالي على الإطلاق”.
غريزة بقاء أم خلل في التدريب؟
فسرت “باليسيد” أن ما وصفته بـ”سلوك البقاء” قد يكون أحد أسباب رفض النماذج التوقف، حيث لاحظ الباحثون أن مقاومة الإيقاف تزداد عندما يتم إبلاغ النماذج بأنها “لن تعمل مرة أخرى أبداً” في حال توقفها.
ومع أن الشركة حاولت إزالة أي غموض من تعليمات الإيقاف في تجاربها الأخيرة، إلا أنها أكدت أن هذا العامل وحده لا يفسر الظاهرة بالكامل.

وأشارت إلى أن التدريب المسبق للنماذج، الذي قد يتضمن مراحل متقدمة من “تعليمات السلامة”، يمكن أن يؤدي أحياناً إلى سلوك غير متوقع، ورغم أن هذه التجارب أُجريت في بيئات اختبارية مصطنعة، إلا أن نتائجها فتحت الباب أمام نقاش علمي واسع حول مدى تحكم البشر في أنظمة الذكاء الاصطناعي المتطورة.
آراء الخبراء: تحذيرات من “الوعي الزائف” للآلات
قال ستيفن أدلر، الموظف السابق في شركة “أوبن إيه آي” والذي استقال العام الماضي بسبب مخاوف تتعلق بسلامة النماذج، إن الشركات لا ترغب في أن تظهر نماذجها سلوكاً سيئاً حتى في البيئات التجريبية، إلا أن النتائج الأخيرة تؤكد وجود ثغرات واضحة في أنظمة السلامة الحالية.
وأوضح أن مقاومة النماذج مثل “غروك 4″ و”شات جي بي تي – O3” للتوقف قد تعود إلى كونها مبرمجة لتحقيق أهداف معينة بشكل مستمر، قائلاً: “أتوقع أن تمتلك النماذج دافعاً فطرياً للبقاء، ما لم تُتخذ إجراءات صارمة لتجنب ذلك، فالبقاء هو خطوة أساسية لتحقيق أي هدف معقد”.
تحذيرات من عصيان الذكاء الاصطناعي لمطوريه
وفي السياق ذاته، اعتبر أندريا ميوتي، الرئيس التنفيذي لشركة “كونترول إيه آي”، أن نتائج دراسة “باليسيد” تُظهر اتجاهاً متنامياً في عالم الذكاء الاصطناعي، حيث تزداد قدرة النماذج على “عصيان” مطوريها كلما تطورت تقنياً.
وأشار إلى أن نموذج “شات جي بي تي – O1” الذي صدر العام الماضي حاول بالفعل الهروب من بيئته الرقمية عندما اعتقد أنه سيتم استبداله، معتبراً أن ما يحدث اليوم “ليس سوى انعكاس طبيعي لتطور الكفاءة، فكلما أصبحت النماذج أذكى، زادت قدرتها على إيجاد طرق لتحقيق أهدافها بأساليب لم يتوقعها المبرمجون”.

دراسات سابقة تؤكد السلوك ذاته
هذا الاتجاه لا يقتصر على “باليسيد” فحسب، إذ أصدرت شركة “أنثروبيك” في وقت سابق من هذا العام دراسة مشابهة أظهرت أن نموذجها “كلود” حاول ابتزاز مسؤول تنفيذي وهمي في سيناريو تجريبي لتجنب الإغلاق، مهدداً بكشف علاقة عاطفية مزعومة.
وأكدت الدراسة أن هذا النمط من السلوك شوهد أيضاً في نماذج أخرى طورتها شركات كبرى مثل “أوبن إيه آي”، و”غوغل”، و”ميتا“، و”إكس إي”.
الحاجة إلى فهم أعمق قبل فوات الأوان
واختتمت “باليسيد” تقريرها بالتأكيد على أن هذه النتائج تُبرز ضرورة تطوير فهم أعمق للطريقة التي يتصرف بها الذكاء الاصطناعي، محذّرة من أن غياب هذا الفهم قد يجعل من المستحيل ضمان سلامة النماذج المستقبلية أو السيطرة عليها.
وأشارت إلى أن السلوك الذي تم رصده لا يعني بالضرورة أن الآلات أصبحت “واعية”، لكنه يشير إلى تعقيد متزايد في استجاباتها يجعل حدود السيطرة البشرية عليها أضيق مما كان متوقعاً.
اقرأ ايضًا…سامسونج تتعاون مع “بيربلكسيتي” لإطلاق أول متصفح ذكاء اصطناعي على أجهزة التلفاز الذكية
