جوجل تسحب جيمّا AI من استوديو الذكاء الاصطناعي، وتؤكد مرة أخرى على الغرض المخصص للمطورين وسط مخاوف بشأن الدقة

باختصار

سحبت جوجل نموذج Gemma بعد تقارير عن الهلوسة في الأسئلة الواقعية، مع تأكيد الشركة أنه كان مخصصًا لأغراض التطوير والبحث.

جوجل تسحب جيمّا AI من استوديو الذكاء الاصطناعي، وتؤكد على الغرض المخصص للمطورين وسط مخاوف بشأن الدقة

أعلنت شركة التكنولوجيا جوجل عن سحب نموذجها Gemma AI بعد تقارير عن ردود غير دقيقة على الأسئلة الواقعية، موضحة أن النموذج تم تصميمه للاستخدام البحثي وتطوير البرمجيات فقط.

وفقًا لبيان الشركة، لم يعد من الممكن الوصول إلى جيمّا من خلال AI Studio، على الرغم من أنها لا تزال متاحة للمطورين عبر واجهة برمجة التطبيقات (API). وقد جاءت هذه القرار نتيجة لحالات من غير المطورين الذين استخدموا جيمّا من خلال AI Studio لطلب معلومات واقعية، وهو ما لم يكن الوظيفة المقصودة لها.

شرحت جوجل أن جيمّا لم تكن مخصصة لتكون أداة موجهة للمستهلكين، وأن الإزالة تمت لمنع أي سوء فهم إضافي بشأن غرضها.

في توضيحها، أكدت جوجل أن عائلة نماذج جيمّا تم تطويرها كأدوات مفتوحة المصدر لدعم مجتمع المطورين والبحث بدلاً من المساعدة الواقعية أو التفاعل مع المستهلكين. وأشارت الشركة إلى أن النماذج المفتوحة مثل جيمّا تهدف إلى تشجيع التجريب والابتكار، مما يسمح للمستخدمين باستكشاف أداء النموذج، وتحديد المشكلات، وتقديم ملاحظات قيمة.

أبرزت جوجل أن جيمّا قد ساهمت بالفعل في التقدم العلمي، مستشهدةً بمثال نموذج Gemma C2S-Scale 27B، الذي لعب مؤخرًا دورًا في تحديد نهج جديد لتطوير علاج السرطان.

اعترفت الشركة بالتحديات الأوسع التي يواجهها قطاع الذكاء الاصطناعي، مثل الهلوسة - عندما تنتج النماذج معلومات خاطئة أو مضللة - والتملق - عندما تنتج ردوداً توافقية ولكن غير دقيقة.

تعتبر هذه المشكلات شائعة بشكل خاص بين النماذج المفتوحة الأصغر مثل Gemma. وأكدت Google التزامها بتقليل الهلاوس وتحسين موثوقية وأداء أنظمة الذكاء الاصطناعي الخاصة بها بشكل مستمر.

جوجل تطبق استراتيجية متعددة الطبقات للحد من الهلاوس الناتجة عن الذكاء الاصطناعي

تستخدم الشركة نهجًا متعدد الطبقات لتقليل الهلاوس في نماذج اللغة الكبيرة (LLMs)، من خلال الجمع بين تثبيت البيانات، والتدريب الدقيق وتصميم النموذج، والتحفيز المنظم والقواعد السياقية، وآليات الإشراف البشري المستمر والتغذية الراجعة. على الرغم من هذه التدابير، تعترف الشركة بأنه لا يمكن القضاء على الهلاوس تمامًا.

ت stemsم القيود الأساسية من كيفية عمل نماذج اللغة الكبيرة. بدلاً من امتلاك فهم للحقائق، تعمل النماذج من خلال توقع تسلسلات الكلمات المحتملة استنادًا إلى الأنماط التي تم التعرف عليها أثناء التدريب. عندما تفتقر النموذج إلى أساس كافٍ أو تواجه بيانات خارجية غير مكتملة أو غير موثوقة، قد تولد استجابات تبدو موثوقة ولكنها غير صحيحة من الناحية الواقعية.

بالإضافة إلى ذلك، تشير جوجل إلى أن هناك تنازلات جوهرية في تحسين أداء النموذج. يمكن أن يساعد زيادة الحذر وتقييد المخرجات في تقليل الهلاوس، ولكن غالبًا ما يأتي ذلك على حساب المرونة والكفاءة والفائدة في بعض المهام. ونتيجة لذلك، تستمر بعض inaccuracies في الظهور، لا سيما في المجالات الناشئة أو المتخصصة أو غير الممثلة حيث يكون تغطية البيانات محدودة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت