“ميتا” تكشف عن نسختها الخاصة من الذكاء الاصطناعي لمنافسة “Chat GPT”

#سواليف

كشفت شركة #ميتا، المالكة لموقع #فيسبوك، عن نسختها الخاصة من #الذكاء_الاصطناعي المستخدم في تطبيقات مثل “تشات جي بي تي”، قائلة إنها ستتيح للباحثين إيجاد حلول للمخاطر المحتملة لهذه #التكنولوجيا، وفق ما ذكرته وكالة الأنباء الفرنسية، السبت 25 فبراير/شباط 2023.

حيث وصفت ميتا برنامج الذكاء الاصطناعي الخاص بها، والمسمى (لاما) (LLaMA)، بأنه نموذج “أصغر وأفضل أداءً”، “صُمم “لمساعدة الباحثين على تطوير عملهم”، فيما يمكن اعتباره انتقاداً مبطّناً لقرار مايكروسوفت بإصدار التكنولوجيا على نطاق واسع، مع الاحتفاظ برمز البرمجة سرّياً.

يأتي ذلك بينما أثارت برمجية “تشات جي بي تي” المدعومة من مايكروسوفت، ضجة كبيرة في العالم بفعل قدرتها على إنشاء نصوص متقنة مثل المقالات أو القصائد، في ثوانٍ فقط، باستخدام تقنية تُعرف باسم نماذج اللغات الكبيرة “إل إل إم” (LLM).

حسب وكالة الأنباء الفرنسية، تعد تكنولوجيا “إل إل إم” جزءاً من مجال يُعرف باسم الذكاء الاصطناعي التوليدي، والذي يتضمن أيضاً القدرة على التصرف بالصور أو التصميمات أو كود البرمجة بشكل فوري تقريباً، بناءً على طلب بسيط.

سباق لتطوير الذكاء الاصطناعي

بينما عمّقت مايكروسوفت شراكتها مع شركة “أوبن إيه آي”، مبتكرة “تشات جي بي تي”، إذ أعلنت في وقت سابق من هذا الشهر أن التكنولوجيا ستُدمج في محرك بحث بينغ الخاص بها، وكذلك متصفح إيدج.

كما أعلنت جوجل، التي ترى تهديداً مفاجئاً لهيمنة محرك البحث الخاص بها، أنها ستطلق قريباً لغتها الخاصة في مجال الذكاء الاصطناعي، وتحمل اسم بارد.

لكنّ تقارير عن ثغرات شابت عمليات تواصل مع روبوت المحادثة الخاص بمحرك بينغ، التابع لمايكروسوفت، بينها توجيه تهديدات وحديث عن رغبة في سرقة رمز نووي، انتشرت على نطاق واسع، ما أعطى انطباعاً بأن التكنولوجيا ليست جاهزة بعد.

فيما أشارت ميتا إلى أن هذه المشكلات التي أظهرها الذكاء الاصطناعي عبر روبوتات المحادثة، والتي شبّهها البعض بالهلوسات، يمكن علاجها بشكل أفضل إذا تمكّن الباحثون من تحسين الوصول إلى هذه التكنولوجيا باهظة الثمن.

كما قالت الشركة إن البحث الشامل “لا يزال محدوداً بسبب الموارد المطلوبة لتدريب مثل هذه النماذج الكبيرة وتشغيلها”. وأوضحت ميتا أن هذا الأمر يعيق الجهود “لتحسين قدرات” هذه التكنولوجيا، و”تخفيف المشكلات المعروفة، مثل “التحيز” و”إمكانية توليد معلومات مضللة”.

اظهر المزيد

مقالات ذات صلة

اترك رداً

زر الذهاب إلى الأعلى