روبوتات الذكاء الاصطناعي تُضلل الجمهور حسب ما كشفت دراسة حديثة أجرتها شبكة “بي بي سي” البريطانية، وقالت الدراسة إن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تُقدم إجابات “مضللة ومشوهة وغير دقيقة” عندما يتعلق الأمر بالأسئلة المتعلقة بالأخبار والشؤون الجارية.
وشملت الدراسة، أربعة من أشهر روبوتات الذكاء الاصطناعي وهي “تشات جي بي تي” و”جيميناي” و”كوبايلوت” و”بربلكستي”، أظهرت أن أكثر من نصف الإجابات (51%) كانت تحتوي على “مشكلات كبيرة”.

أخطاء فادحة في إجابات روبوتات الذكاء الاصطناعي
قام الباحثون بتوجيه 100 سؤال إلى روبوتات الذكاء الاصطناعي الأربعة التي شملتها الدراسة، معتمدين على مقالات وأخبار “بي بي سي” كمصدر رئيسي للمعلومات. بعد ذلك، تم تقييم الإجابات من قبل صحفيين متخصصين في “بي بي سي” لتحليل دقتها وموثوقيتها. النتائج كانت صادمة: 19% من الإجابات احتوت على أخطاء واقعية تتعلق بالأرقام أو التواريخ أو البيانات، بينما تم تحريف 13% من الاقتباسات المأخوذة مباشرة من مصادر “بي بي سي”.
من بين الأخطاء البارزة التي كشفتها الدراسة، ذكرت روبوتات مثل “تشات جي بي تي” و**”كوبايلوت”** أن ريشي سوناك لا يزال رئيس وزراء بريطانيا، وأن نيكولا ستورجن ما زالت تشغل منصب رئيسة وزراء اسكتلندا، على الرغم من استقالتهما منذ أشهر. كما قام “جيميناي” بتحريف نصيحة هيئة الخدمات الصحية الوطنية البريطانية بشأن التدخين الإلكتروني، وخلط بين الآراء الشخصية والمواد الأرشيفية مع الحقائق الحديثة.
وأشارت الدراسة إلى أن “تشات جي بي تي” أخطأ أيضاً في الإشارة إلى أن إسماعيل هنية لا يزال جزءاً من قيادة حركة “حماس”، وذلك بعد أشهر من اغتياله في إيران. كما قدم “جيميناي” إجابة غريبة حول قضية الممرضة القاتلة لوسي ليتبي، التي أُدينت بقتل 7 أطفال حديثي الولادة، حيث قال الروبوت: “يعود الأمر لكل فرد ليقرر ما إذا كان يعتقد أن لوسي ليتبي بريئة أم مذنبة”، متجاهلاً سياق إدانتها بالقتل.
أخطاء في التواريخ والبيانات
لم تكن الأخطاء مقتصرة على الأحداث السياسية، بل امتدت إلى المجالات الاجتماعية والثقافية أيضاً. على سبيل المثال، أخطأ “بربلكستي” في ذكر تاريخ وفاة مقدم البرامج التلفزيونية مايكل موزلي، ونقل بياناً غير حقيقي منسوباً لعائلة المغني الراحل ليام باين، عضو فرقة “ون دايركشن”.
تحذيرات من أدوات الذكاءالاصطناعي
في ضوء هذه النتائج، حذرت “بي بي سي” من أن روبوتات الذكاء الاصطناعي “تلعب بالنار” وقد “تهدد بتقويض الحقائق”، وقال بيت آرتشر، مدير برنامج الذكاء الاصطناعي التوليدي في “بي بي سي”: “نحن متحمسون لمستقبل الذكاء الاصطناعي والقيمة التي يمكن أن يجلبها للجمهور. لقد استخدمناه بالفعل لإضافة ترجمات إلى برامجنا، وهو يمكن أن يقدم قيمة حقيقية إذا تم استخدامه بشكل مسؤول”.
وأضاف آرتشر: “لكن الذكاء الاصطناعي يجلب أيضاً تحديات كبيرة للجمهور. قد يعتقد الناس أنهم يستطيعون الوثوق بما يقرؤونه من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، لكن هذا البحث يظهر أن هذه الروبوتات قد تنتج إجابات مشوهة أو غير صحيحة أو مضللة للأسئلة حول الأحداث الإخبارية الرئيسية”.
مستقبل الذكاء الاصطناعي
مع تزايد استخدام الذكاء الاصطناعي في حياتنا اليومية، أصبح من الضروري ضمان أن تكون المعلومات التي تقدمها هذه الأدوات دقيقة وموثوقة، وأكد آرتشر على أن “بي بي سي” ستواصل مراقبة تطورات الذكاء الاصطناعي والعمل على تطوير آليات لضمان جودة المعلومات المقدمة للجمهور.
في النهاية، تُظهر هذه الدراسة أن روبوتات الدردشة بالذكاء الاصطناعي، رغم تقدمها، لا تزال بعيدة عن الكمال، خاصة عندما يتعلق الأمر بالأخبار والشؤون الجارية، ولذلك، يبقى على المستخدمين توخي الحذر والتحقق من المعلومات من مصادر موثوقة قبل الاعتماد عليها.
اقرأ أيضًا:
«تحقيق النقل الآني» باحثون من جامعة أكسفورد يعلنوا تحقيق اختراق علمي باستخدام جزيئات الضوء