حذّر الأمين العام للأمم المتحدة، أنطونيو جوتيريش، من المخاطر المتسارعة للذكاء الاصطناعي، مشددًا على أن مستقبل البشرية “لا يمكن أن يُترك للخوارزميات”، داعيًا إلى تعاون دولي واسع لضمان أن يكون الذكاء الاصطناعي في خدمة الإنسانية وليس على حسابها.
جاء ذلك خلال جلسة نقاش رفيعة المستوى عقدها مجلس الأمن الدولي، أمس الأربعاء، حول “الذكاء الاصطناعي والسلام والأمن الدوليين”.

الذكاء الاصطناعي لم يعد مستقبلًا.. بل واقعٌ يفرض نفسه
وقال جوتيريش، إن الذكاء الاصطناعي لم يعد مجرد تقنية مستقبلية، بل أصبح واقعًا “يُغيّر الحياة اليومية والفضاء المعلوماتي والاقتصاد العالمي بسرعة مذهلة”، مؤكدًا أن التكنولوجيا قادرة على تسريع التنمية المستدامة وتعزيز السلام والاستقرار العالمي إذا وُجهت بالشكل الصحيح، وفقًا لموقع “أخبار الأمم المتحدة”.
دعوة لحوكمة عادلة وشاملة للذكاء الاصطناعي
أكّد الأمين العام أهمية أن يكون لكل دولة “مساحة عادلة لتشكيل مستقبلها في هذا المجال”، معلنًا عن تشكيل فريق علمي دولي مستقل معني بالذكاء الاصطناعي من قِبل الجمعية العامة للأمم المتحدة الشهر الماضي، إلى جانب إطلاق حوار عالمي سنوي حول الحوكمة.
وأوضح أن هذه المبادرات تهدف إلى ربط العلم بالسياسات والممارسات، وتقليل التشتت العالمي، مع منح جميع الدول صوتًا على طاولة صنع القرار في مجال الذكاء الاصطناعي.
ترشيح خبراء وتوفير الموارد للحوكمة العلمية
حثّ جوتيريش الدول الأعضاء على ترشيح خبراء بارزين ومتنوعين لعضوية الفريق العلمي، مع التأكيد على أهمية دعم استقلالية الفريق وتنوعه الإقليمي وتوفير الموارد اللازمة لـ إجراء تقييمات علمية دقيقة وفي الوقت المناسب.
كما دعا الحكومات والقطاع الخاص والمجتمع المدني إلى المشاركة الفاعلة في الحوار العالمي لوضع معايير أخلاقية وقانونية واضحة، تستند إلى حقوق الإنسان، لحوكمة الذكاء الاصطناعي.
اقرأ أيضًا:
“OpenAI” تستعد لإطلاق ميزات جديدة في “شات جي بي تي”… ولكن بتكلفة مرتفعة
تحذير من الأسلحة الذاتية الفتاكة ودعوة لحظرها
وجدد جوتيريش دعوته الملحة إلى حظر أنظمة الأسلحة القاتلة ذاتية التشغيل التي تعمل دون إشراف بشري، معتبرًا ذلك ضرورة أخلاقية وقانونية، وطالب بإبرام صك ملزم قانونيًا بحلول العام المقبل، يحظر هذه الأنظمة التي تهدد أمن العالم واستقراره.