Final logo-01

بث تجريبي

فيسبوك الانستغرام X (Twitter) واتساب يوتيوب تيلقرام تيكتوك لينكدإن
  • الأركان
  • عربية ودولية
  • رياضة
  • اقتصاد
  • سيارات
  • تكنولوجيا
  • حول العالم
    • منوعات
    • المرأة
    • نوستاليجا 
    • طرائف
    • صحة
    • المطبخ
    • فن وثقافة
  • مقالات
  • Media
    • photos
    • Videos
  • الأركان
  • عربية ودولية
  • رياضة
  • اقتصاد
  • سيارات
  • تكنولوجيا
  • حول العالم
    • منوعات
    • المرأة
    • نوستاليجا 
    • طرائف
    • صحة
    • المطبخ
    • فن وثقافة
  • مقالات
  • Media
    • photos
    • Videos
الرئيسية»تكنولوجيا»روبوتات الذكاء الاصطناعي تُضلل الجمهور.. دراسة تكشف أخطاء فادحة في إجاباتها
تكنولوجيا

روبوتات الذكاء الاصطناعي تُضلل الجمهور.. دراسة تكشف أخطاء فادحة في إجاباتها

منى سرحانبواسطة منى سرحان15/02/2025آخر تحديث:15/02/2025لا توجد تعليقات4 زيارة
فيسبوك تويتر بينتيريست لينكدإن واتساب رديت Tumblr البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

روبوتات الذكاء الاصطناعي تُضلل الجمهور حسب ما كشفت دراسة حديثة أجرتها شبكة “بي بي سي” البريطانية،  وقالت الدراسة إن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تُقدم إجابات “مضللة ومشوهة وغير دقيقة” عندما يتعلق الأمر بالأسئلة المتعلقة بالأخبار والشؤون الجارية.

وشملت الدراسة، أربعة من أشهر روبوتات الذكاء الاصطناعي وهي “تشات جي بي تي” و”جيميناي” و”كوبايلوت” و”بربلكستي”، أظهرت أن أكثر من نصف الإجابات (51%) كانت تحتوي على “مشكلات كبيرة”.

روبوتات الذكاء الاصطناعي
روبوتات الذكاء الاصطناعي

أخطاء فادحة في إجابات روبوتات الذكاء الاصطناعي 

قام الباحثون بتوجيه 100 سؤال إلى روبوتات الذكاء الاصطناعي الأربعة التي شملتها الدراسة، معتمدين على مقالات وأخبار “بي بي سي” كمصدر رئيسي للمعلومات. بعد ذلك، تم تقييم الإجابات من قبل صحفيين متخصصين في “بي بي سي” لتحليل دقتها وموثوقيتها. النتائج كانت صادمة: 19% من الإجابات احتوت على أخطاء واقعية تتعلق بالأرقام أو التواريخ أو البيانات، بينما تم تحريف 13% من الاقتباسات المأخوذة مباشرة من مصادر “بي بي سي”.

من بين الأخطاء البارزة التي كشفتها الدراسة، ذكرت روبوتات مثل “تشات جي بي تي” و**”كوبايلوت”** أن ريشي سوناك لا يزال رئيس وزراء بريطانيا، وأن نيكولا ستورجن ما زالت تشغل منصب رئيسة وزراء اسكتلندا، على الرغم من استقالتهما منذ أشهر. كما قام “جيميناي” بتحريف نصيحة هيئة الخدمات الصحية الوطنية البريطانية بشأن التدخين الإلكتروني، وخلط بين الآراء الشخصية والمواد الأرشيفية مع الحقائق الحديثة.

وأشارت الدراسة إلى أن “تشات جي بي تي” أخطأ أيضاً في الإشارة إلى أن إسماعيل هنية لا يزال جزءاً من قيادة حركة “حماس”، وذلك بعد أشهر من اغتياله في إيران. كما قدم “جيميناي” إجابة غريبة حول قضية الممرضة القاتلة لوسي ليتبي، التي أُدينت بقتل 7 أطفال حديثي الولادة، حيث قال الروبوت: “يعود الأمر لكل فرد ليقرر ما إذا كان يعتقد أن لوسي ليتبي بريئة أم مذنبة”، متجاهلاً سياق إدانتها بالقتل.

 

أخطاء في التواريخ والبيانات

لم تكن الأخطاء مقتصرة على الأحداث السياسية، بل امتدت إلى المجالات الاجتماعية والثقافية أيضاً. على سبيل المثال، أخطأ “بربلكستي” في ذكر تاريخ وفاة مقدم البرامج التلفزيونية مايكل موزلي، ونقل بياناً غير حقيقي منسوباً لعائلة المغني الراحل ليام باين، عضو فرقة “ون دايركشن”.

تحذيرات من أدوات الذكاءالاصطناعي

في ضوء هذه النتائج، حذرت “بي بي سي” من أن روبوتات الذكاء الاصطناعي “تلعب بالنار” وقد “تهدد بتقويض الحقائق”، وقال بيت آرتشر، مدير برنامج الذكاء الاصطناعي التوليدي في “بي بي سي”: “نحن متحمسون لمستقبل الذكاء الاصطناعي والقيمة التي يمكن أن يجلبها للجمهور. لقد استخدمناه بالفعل لإضافة ترجمات إلى برامجنا، وهو يمكن أن يقدم قيمة حقيقية إذا تم استخدامه بشكل مسؤول”.

وأضاف آرتشر: “لكن الذكاء الاصطناعي يجلب أيضاً تحديات كبيرة للجمهور. قد يعتقد الناس أنهم يستطيعون الوثوق بما يقرؤونه من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، لكن هذا البحث يظهر أن هذه الروبوتات قد تنتج إجابات مشوهة أو غير صحيحة أو مضللة للأسئلة حول الأحداث الإخبارية الرئيسية”.

 

مستقبل الذكاء الاصطناعي

مع تزايد استخدام الذكاء الاصطناعي في حياتنا اليومية، أصبح من الضروري ضمان أن تكون المعلومات التي تقدمها هذه الأدوات دقيقة وموثوقة، وأكد آرتشر على أن “بي بي سي” ستواصل مراقبة تطورات الذكاء الاصطناعي والعمل على تطوير آليات لضمان جودة المعلومات المقدمة للجمهور.

في النهاية، تُظهر هذه الدراسة أن روبوتات الدردشة بالذكاء الاصطناعي، رغم تقدمها، لا تزال بعيدة عن الكمال، خاصة عندما يتعلق الأمر بالأخبار والشؤون الجارية، ولذلك، يبقى على المستخدمين توخي الحذر والتحقق من المعلومات من مصادر موثوقة قبل الاعتماد عليها.

اقرأ أيضًا:

«تحقيق النقل الآني» باحثون من جامعة أكسفورد يعلنوا تحقيق اختراق علمي باستخدام جزيئات الضوء

أحداث جارية أخبار مشوهة أخطاء واقعية الذكاء الاصطناعي الذكاء الاصطناعي أركان بربلكستي بيت آرتشر تحديات الذكاء الاصطناعي تحريف الاقتباسات تشات جي بي تي تقويض الحقائق تقييم دقة المعلومات جيميناي دراسة بي بي سي روبوتات الدردشة صحافة الذكاء الاصطناعي كوبايلوت مستقبل الذكاء الاصطناعي مصداقية المعلومات معلومات غير دقيقة معلومات مضللة
شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr تيلقرام البريد الإلكتروني
منى سرحان

المقالات ذات الصلة

يوتيوب يتخلى عن الأجهزة القديمة.. 7 هواتف آيفون تودع التطبيق نهائيًا

08/06/2025

هواوي تجهّز للجيل الثاني من هاتفها القابل للطي ثلاثيًا

06/06/2025

تحديث على  Google Mapsيثير التساؤلات.. التطبيق يُبدّل شعاره دون إعلان رسمي

05/06/2025

التعليقات مغلقة.

الأخيرة

رحاب فتحي تكتب.. صلة الرحم والدم “فريضة إنسانية قبل أن تكون دينية”

03/05/2025

شريف نصيف يكتب : “ماكرون” أبواب مصر وقلوب شعبها مفتوحة دائمًا لك

11/04/2025

أ.د يحيى عبد الله يكتب .. «أصوات احتجاج متصاعدة في إسرائيل ضد الحرب»

12/04/2025

قائمة أفضل 5 دراجات نارية عام 2025 «المغامرة بين إيديك»

18/02/2025
أخبار خاصة
المطبخ

طريقة عمل الرقاق باللحمة.. طبق مصري لا غنى عنه في العيد

بواسطة نيرة جمال09/06/20250

يُعد الرقاق باللحمة واحدًا من أشهر الأطباق المصرية التقليدية، التي تحظى بشعبية كبيرة في مختلف…

بوتين يقر استراتيجية بحرية روسية حتى 2050.. أسطول أقوى لمواجهة التحديات العالمية

09/06/2025

استقرار أسعار النفط في بداية الأسبوع وسط ترقّب اجتماع تجاري بين واشنطن وبكين

09/06/2025
إتبعنا
  • Facebook
  • YouTube
  • TikTok
  • WhatsApp
  • Twitter
  • Instagram
الأكثر قراءة

رحاب فتحي تكتب.. صلة الرحم والدم “فريضة إنسانية قبل أن تكون دينية”

03/05/2025104

شريف نصيف يكتب : “ماكرون” أبواب مصر وقلوب شعبها مفتوحة دائمًا لك

11/04/202578

أ.د يحيى عبد الله يكتب .. «أصوات احتجاج متصاعدة في إسرائيل ضد الحرب»

12/04/202561

قائمة أفضل 5 دراجات نارية عام 2025 «المغامرة بين إيديك»

18/02/202556
Final logo-01
  • أركان نيوز
  • من نحن !
  • سياسة الخصوصية
  • التواصل
  • أركان نيوز
  • من نحن !
  • سياسة الخصوصية
  • التواصل

جميع الحقوق محفوظة لموقع أركان نيوز 2025©

اكتب كلمة البحث ثم اضغط على زر Enter