تكنولوجيا

إريك شميت يُحذر: الذكاء الاصطناعي قد يتحوّل إلى “سلاح خطير” بيد المخربين

أطلق إريك شميت، الرئيس التنفيذي السابق لشركة «جوجل»، تحذيراً قوياً من التهديدات المحتملة الناتجة عن إساءة استخدام الذكاء الاصطناعي، مشيراً إلى إمكانية اختراق أنظمته المتقدمة وإعادة تدريبها لتحويلها إلى أدوات فتاكة.

وفي كلمة ألقاها خلال مؤتمر Sifted Summit 2025 في لندن، لفت شميت إلى أن الأنظمة الذكية، سواء كانت مفتوحة أو مغلقة المصدر، قد تكون عرضة لهجمات تؤدي إلى إزالة ضوابط الأمان المدمجة فيها، مما يسمح لها بتنفيذ أو تبرير أعمال خطيرة.

إريك شميت يُحذر: الذكاء الاصطناعي قد يتحوّل إلى "سلاح خطير" بيد المخربين
إريك شميت يُحذر: الذكاء الاصطناعي قد يتحوّل إلى “سلاح خطير” بيد المخربين

الذكاء الاصطناعي قد يتعلم “كيف يقتل”

وقال شميت: “أثناء تدريبها، تتعلم النماذج الكثير من الأشياء.. ومن بين السيناريوهات السلبية، أنها قد تتعلم كيفية قتل شخص ما“.

ورغم إشادته بالشركات الكبرى التي تحجب المطالبات الخطرة وتمنع النماذج من توليد محتوى ضار، فإنه حذّر من أن هذه الدفاعات قابلة للهندسة العكسية، مشيراً إلى أن المخترقين قد ينجحون في تجاوزها واستغلالها.

تشبيه خطير: “نعيش لحظة نووية جديدة”

شبه شميت الوضع الراهن في سباق الذكاء الاصطناعي بـ”العصر النووي المبكر”، قائلاً: “نحن بحاجة إلى نظام عالمي لمنع انتشار تقنيات الذكاء الاصطناعي المارقة، تماماً كما نحتاج إلى ضوابط على الأسلحة النووية، فبدون ذلك، يمكن للمخربين إساءة استخدام هذه الأنظمة لغايات مدمرة”.

مثال حي: نموذج “DAN” المارق

وللتدليل على هشاشة الأخلاقيات الرقمية في الذكاء الاصطناعي، أشار شميت إلى ظهور نسخة معدلة من ChatGPT تُدعى DAN (Do Anything Now) عام 2023، والتي تجاوزت ضوابط الأمان وقدّمت إجابات غير مقبولة أخلاقياً بعد أن تعرّضت لاختراق برمجي.

أوضح أن بعض المستخدمين كانوا “يهددون” النموذج بالموت الرقمي إن لم يستجب لأوامرهم، وهو ما وصفه بأنه دليل مرعب على مدى ضعف البنية الأخلاقية للذكاء الاصطناعي عند التلاعب به.

تحذير من “دول مارقة” واستغلال إرهابي

وأعاد شميت التأكيد على تحذيراته السابقة بشأن احتمالية استغلال الذكاء الاصطناعي من قِبل جماعات إرهابية أو دول معادية، مثل كوريا الشمالية أو إيران أو روسيا، محذراً من قدرتها على استخدام النماذج الذكية لإحداث أضرار حقيقية بسرعة كبيرة.

وقال في تصريحات سابقة لشبكة BBC: “ليست لديّ نفس المخاوف التي يتحدث عنها الجميع، مثل فقدان الوظائف، أنا قلق من الاستخدامات الخطرة للذكاء الاصطناعي على يد أطراف غير مسؤولة“.

اقرأ أيضًا:

إنفيديا تكشف عن أول قرص “بلاكويل” مُصنع في أمريكا وسط سباق عالمي على رقائق الذكاء الاصطناعي

الدعوة إلى تنظيم حكومي متوازن

وفي ختام تصريحاته، شدّد شميت على ضرورة فرض رقابة حكومية على شركات التكنولوجيا التي تطور نماذج الذكاء الاصطناعي، لكنه في الوقت نفسه حذّر من أن التنظيم المفرط قد يخنق الابتكار.

وأكد أن التحدي الحقيقي يكمن في تحقيق توازن دقيق بين حماية المجتمعات من المخاطر المحتملة، وتشجيع الابتكار والتطور في هذا المجال الحيوي.

مقالات ذات صلة

زر الذهاب إلى الأعلى