كشفت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي، ومقرها هانغتشو، عن تفاصيل جديدة تتعلق بكيفية تصفية البيانات المستخدمة في تدريب نماذجها، في خطوة وُصفت بأنها محاولة لزيادة الشفافية وسط تشديد الرقابة الحكومية في بكين على قطاع الذكاء الاصطناعي.
وأوضحت الشركة في وثيقة رسمية نُشرت مطلع الأسبوع أنها تجمع بيانات التدريب الأولي بشكل أساسي من المعلومات المتاحة للعامة على الإنترنت، إضافةً إلى بيانات من أطراف ثالثة مُصرح باستخدامها، مؤكدة أنها لا تسعى إلى جمع بيانات شخصية.
آليات التصفية وتقليل التحيزات
أوضحت DeepSeek أنها تطبق أنظمة تصفية آلية لإزالة البيانات التي تحتوي على خطاب كراهية أو محتوى إباحي أو عنف أو رسائل غير مرغوبة أو محتويات منتهكة لحقوق الملكية.
كما تستخدم خوارزميات متقدمة مع مراجعة بشرية لتحديد الانحيازات الإحصائية الكامنة داخل مجموعات البيانات الضخمة، بهدف تقليل أثرها على مخرجات النماذج.
وأكدت الشركة التزامها بمواصلة الأبحاث لتقليل ظاهرة “الهلوسة” – أي إنتاج إجابات غير دقيقة أو مضللة – عبر تقنيات مثل التوليد المعزز بالاسترجاع، لكنها شددت على أن هذه المشكلة لا تزال قائمة ولا يمكن القضاء عليها تماماً في المرحلة الحالية.
جدل حول “الهلوسة” وتراجع شعبية المنصة
أشارت الشركة إلى أن الذكاء الاصطناعي لا يزال في مراحله الأولى، وبالتالي لا يمكن ضمان دقة المخرجات بشكل كامل، داعية المستخدمين إلى استشارة خبراء متخصصين عند الحاجة.
وتواجه DeepSeek، على غرار شركات كبرى مثل OpenAI، انتقادات حادة بسبب نسب “الهلوسة” المرتفعة في روبوت الدردشة الخاص بها، حيث تراجعت زيارات موقعها للشهر الخامس على التوالي لتسجل 345 مليون زيارة في يوليو الماضي، وفقاً لمنصات تتبع شعبية المنتجات الرقمية.
وتزامن هذا التراجع مع سلسلة من الفضائح المتعلقة بالمعلومات المضللة، من بينها حادثة أثارت جدلاً في يوليو عندما نُشرت شائعة عبر روبوت الشركة تضمنت إساءة لأحد المشاهير الصينيين.
سياسات جديدة لمواجهة التضليل ومخاطر الاستخدام
لمعالجة هذه الأزمة، أعلنت الشركة عبر منصة “وي تشات” أنها ستقوم بوضع علامات واضحة على المحتوى المُولّد بواسطة الذكاء الاصطناعي، مع منع المستخدمين من التلاعب أو حذف أو تزوير تلك العلامات.
وأوضح خبراء، مثل جيلاد أبيري الأستاذ المشارك في كلية القانون بجامعة بكين، أن وضع علامات على النصوص المولدة قد يكون أقل فاعلية مقارنة بأنواع أخرى من المحتوى، لأن النصوص عادة لا تحتفظ بالبيانات الوصفية التي تتيح تتبع مصدرها.
وأثار الخبراء أيضاً تساؤلات حول كيفية التعامل مع النماذج مفتوحة المصدر، والتي تمثل الغالبية العظمى من النماذج الصينية، حيث يمكن لأي شخص استخدامها وتعديلها بحرية.
مخاطر أوسع واستراتيجيات مستقبلية
إلى جانب مشكلة “الهلوسة”، حددت DeepSeek عدة مخاطر أخرى تشمل انتهاك الخصوصية، خرق حقوق النشر، أمان البيانات، سلامة المحتوى، والانحيازات والتمييز.
وأكدت الشركة أن الذكاء الاصطناعي يظل تقنية محايدة، لكن مخاطره تنبع من طرق استخدامه وتطبيقاته العملية.
وأشار سكوت سينجر، الباحث الزائر في برنامج التكنولوجيا والشؤون الدولية بمؤسسة كارنيغي للسلام الدولي، إلى أن وثيقة DeepSeek تعكس رؤية غالبية الشركات الصينية، حيث ينصب التركيز على المخاطر المباشرة مثل حماية البيانات والخصوصية أكثر من المخاطر الكارثية بعيدة المدى.
اقرأ ايضًا…UBS: عام 2026 سيكون تحقيق الأرباح من وكلاء الذكاء الاصطناعي في الصين