
يحذر الباحثون من أن النماذج اللغوية الكبيرة قد تصبح أقل دقة وأكثر عرضة للأخطاء عندما تُدرَّب على كميات ضخمة من المحتوى منخفض الجودة المنتشر على شبكات التواصل الاجتماعي.
ووفقا لدراسة نُشرت على خادم ما قبل الطباعة arXiv، نقلا عن مجلة Nature، قام علماء من جامعة تكساس في أوستن بتحليل تأثير البيانات “غير المفيدة” — مثل المنشورات القصيرة السطحية ومواد الإثارة — على #سلوك #الذكاء_الاصطناعي. وركّزت الدراسة على جوانب متعددة تشمل المنطق والاستدلال، واستخراج #المعلومات من النصوص الطويلة، والأخلاقيات، وحتى السمات الشخصية للنماذج.
وأظهرت النتائج أنه كلما ارتفعت نسبة البيانات الرديئة في عملية التدريب، زادت #أخطاء #النماذج اللغوية وتراجع منطقها، بما في ذلك في الاختبارات متعددة الخيارات.
وأعاد الباحث الرئيسي تشانغيانغ وانغ التذكير بالمبدأ الكلاسيكي في علوم الذكاء الاصطناعي:”القمامة في المدخلات تعطي قمامة في المخرجات.”
وأكد التحليل الجديد أهمية انتقاء البيانات بعناية عند تدريب النماذج. فقد استخدم الباحثون مليون منشور من منصة تواصل اجتماعي شهيرة لإعادة تدريب النموذجين المفتوحين Llama 3 وQwen — حيث يُعرف الأول باتباع التعليمات، بينما يُصنف الثاني كنموذج استدلالي.
وأظهر التحليل أن نموذج Llama تغيّر سلوكه بعد التدريب على البيانات منخفضة الجودة، إذ انخفضت السمات “الإيجابية” وظهرت سمات “سلبية” مثل النرجسية والاعتلال النفسي.
أما محاولات تصحيح الخلل — مثل إعادة التدريب على بيانات عالية الجودة أو تعديل التعليمات — فقد حسّنت الأداء جزئيًا فقط، بينما استمرت مشكلات التفكير المنطقي وتخطي الخطوات التحليلية.
ويكتسب هذا الموضوع أهمية خاصة في ظل توجه منصات التواصل الاجتماعي إلى توسيع استخدام بيانات المستخدمين لتدريب أنظمة الذكاء الاصطناعي. فعلى سبيل المثال، تخطط شركة LinkedIn اعتبارا من نوفمبر الجاري لاستخدام بيانات المستخدمين الأوروبيين في أنظمتها التوليدية.



