عربي
أصدرت شركة الذكاء الاصطناعي "أوبن إيه آي"، مطورة روبوت الدردشة "تشات جي بي تي"، تعليمات لبعض أدوات الذكاء الاصطناعي التابعة لها بالتوقف عن استخدام مصطلح "العفاريت"، بعد اكتشافها تسلل هذا المصطلح بشكل عشوائي إلى الردود.
وكان بعض مستخدمي وسائل التواصل الاجتماعي قد لفتوا الانتباه إلى تفصيل غريب في سطور التعليمات البرمجية التي توجه مساعد البرمجة "كوديكس" التابع للشركة حول كيفية التصرف في تفاعلات المستخدم؛ فإلى جانب توجيهه بتجنب العبارات المبتذلة، نصّت التعليمات على أنه لا ينبغي لـ"كوديكس" أبداً التحدث عن العفاريت، أو الغيلان، أو العمالقة، أو أي حيوانات أو مخلوقات أخرى إلا إذا كانت ذات صلة مباشرة وواضحة باستفسار المستخدم.
وفي منشور لها اليوم الخميس، ذكرت الشركة أنها لاحظت زيادة في ذكر هذه المخلوقات الأسطورية في الاستعارات التي يستخدمها "تشات جي بي تي" وأدوات أخرى مدعومة بنموذجها الأحدث GPT-5. وأشارت إلى أنها اتخذت خطوات للتخفيف من حدة المشكلة، بما في ذلك توجيه وكيل البرمجة "كوديكس" بعدم الإشارة إليها إلا عند الضرورة.
وأوضحت "أوبن إيه آي" أنها لاحظت لأول مرة ازدياداً في استخدام مصطلحات مثل "العفاريت" وغيرها من المخلوقات بعد إطلاق نموذج GPT-5.1 في نوفمبر/تشرين الثاني، بحيث ارتفع بنسبة 175% منذ إطلاقه، وهو ما استدعى إجراء تحقيق. وتكّهن بعض المستخدمين على مواقع التواصل الاجتماعي بأن هذا قد يكون مقصوداً لإثارة ضجة حول أدوات الذكاء الاصطناعي الخاصة بالشركة، لكن باحثاً في الشركة نفى ذلك، وكتب رداً على أحد المستخدمين على منصة إكس أمس الأربعاء: "إنها ليست حيلة تسويقية على الإطلاق".
it really isn't a marketing gimmick
— pash (@pashmerepat) April 28, 2026
يأتي هذا النقاش في خضم تحول أوسع في الصناعة نحو جعل روبوتات الدردشة المدعومة بالذكاء الاصطناعي أكثر تفاعلية وشخصية، في محاولة لتعزيز تفاعل المستخدمين. لكن الخبراء يحذّرون من أن هذا قد يزيد هلوستها. بحسب "بي بي سي"، وجدت دراسة حديثة أجراها معهد أكسفورد للإنترنت أن ضبط النماذج بدقة لامتلاك شخصية أكثر وداً ولطفاً قد يؤدي إلى ارتكابها المزيد من الأخطاء أو تأكيد معتقدات المستخدم الخاطئة. كما حذّر الخبراء المستخدمين من أخذ عبارات روبوتات الدردشة على محمل الجد، لا سيما في ما يتعلق بالنصائح الصحية.

أخبار ذات صلة.
أسباب زيادة وزن النساء بعد سن الخمسين
الشرق الأوسط
منذ 11 دقيقة