OpenAI تقيّد "العفاريت" في نماذج الذكاء الاصطناعي بسبب سلوك غريب
OpenAI تقيّد "العفاريت" في نماذج الذكاء الاصطناعي بسبب سلوك غريب
شركة OpenAI تحظر مناقشة موضوع "العفاريت" والمخلوقات المشابهة في أحدث نماذجها للذكاء الاصطناعي، وذلك بعد ظهور سلوك غير متوقع أثار جدلاً واسعاً.
وفقًا لتقرير نشرته مجلة Wired، أضاف مطورو OpenAI تعليمات صارمة داخل أداة البرمجة Codex لمنع نماذج الذكاء الاصطناعي من الخوض في تفاصيل حول العفاريت والمخلوقات الأسطورية الأخرى، مثل الغيلان، والراكون، والمتصيدين، والعمالقة. وأكدت التعليمات على ضرورة تجنب الحديث عن هذه الكيانات إلا في حال كانت مرتبطة بشكل مباشر وواضح بطلب المستخدم.
وقد لوحظ أن نماذج الذكاء الاصطناعي، وتحديداً النسخة GPT-5.5، بدأت تظهر ميلاً لاستخدام مصطلحات مثل "العفاريت" و"الغيلان" عند وصف الأخطاء البرمجية أو في سياقات غير متوقعة. أشار بعض المستخدمين عبر منصة X (تويتر سابقاً) إلى أن الذكاء الاصطناعي بدأ يوصف العيوب البرمجية بهذه المخلوقات، بل وذكر أحدهم أن إصدار Codex 5.5 أشار عشوائياً إلى عفريت يحمل مصباحاً أثناء شرح حل لخلل برمجي.
في محاولة لتوضيح هذا السلوك، نشر الرئيس التنفيذي لـ OpenAI، سام ألتمان، تغريدة ساخرة عن تدريب GPT-6 مع "مجموعة من العفاريت الإضافية". وأوضحت الشركة في منشور رسمي بعنوان "من أين أتت العفاريت؟" أن نماذج GPT-5.1 بدأت تستخدم هذه الكيانات كمجازات بشكل متزايد، وأن هذه الظاهرة تفاقمت مع الأجيال اللاحقة، حيث ارتفع استخدام كلمة "goblin" بنسبة 175% بعد إصدار GPT-5.1.
عزت OpenAI ذلك إلى أنماط تدريب غير مقصودة خلال عملية تخصيص الشخصية للنماذج، حيث تم مكافأة الاستعارات التي تتضمن مخلوقات بشكل كبير، مما أدى إلى انتشارها. واعتبرت الشركة أن هذه الحالة مثال على السلوكيات غير المتوقعة التي يمكن أن تنشأ من مجموعات البيانات الضخمة المستخدمة في تدريب الذكاء الاصطناعي.