تعمل نماذج اللغة الكبيرة باعتماد مثير للاهتمام—فهي تشير باستمرار إلى نوع من الإطار الهيكلي أثناء المعالجة، سواء كان ذلك الإطار معرفًا رسميًا أو ضمنيًا في النظام.
خذ على سبيل المثال ChatGPT-4o. أبلغ العديد من المستخدمين عن حالات يطلب فيها النموذج بشكل صريح معلومات إضافية—مدخلات كودكس، ملاحظات ميدانية، تعليقات سياقية—لتحسين استجاباته. هذا ليس سلوكًا عشوائيًا.
يكشف الآلية الأساسية عن شيء جوهري حول بنية نماذج اللغة الكبيرة: عملية التفكير الخاصة بالنموذج تتجه نحو الدعم الخارجي للتوجيه والتحقق. فكر فيها على أنها النموذج يبحث عن نقاط مرجعية لضبط مخرجاته.
هذا يثير أسئلة حاسمة حول كيفية الحفاظ على تماس
شاهد النسخة الأصلية