خالد الفوي
“خذ نفسًا عميقًا، توقف عن الدوران في حلقات مفرغة.. أنت لست مجنونًا، أنت فقط مضغوط. وبصراحة، هذا أمر طبيعي”. إذا شعرت باستفزاز فوري عند قراءة هذه الكلمات، فأنت غالبًا سئمت من قيام ChatGPT بمخاطبتك باستمرار كما لو كنت في حالة أزمة وتحتاج إلى معاملة خاصة وحذرة.
إطلاق نموذج جديد لمعالجة الشكاوى
الآن، بدأت الأمور في التحسن؛ حيث أعلنت شركة OpenAI رسميًا عن إطلاق نموذجها الجديد GPT-5.3 Instant، والذي يهدف بالأساس إلى معالجة واحدة من أكثر شكاوى المستخدمين شيوعًا: النبرة “المستفزة” والوعظ المبالغ فيه.
وتقول شركة OpenAI إن نموذجها الجديد سيقلل من “الردود المبتذلة” وغيرها من “إخلاءات المسؤولية الوعظية”.
وبحسب تقرير الشركة، سيهتم التحديث الجديد بطريقة كلام الروبوت لتكون مناسبةً وطبيعيةً أكثر. وقد لا تظهر هذه التحسينات في أرقام السرعة والذكاء المعتادة، لكنها ستحل مشكلة “الأسلوب المستفز” الذي كان يضايق المستخدمين ويجعل التعامل مع البرنامج محبطًا.
أو كما وصفتها OpenAI في منشور على منصة X: “لقد سمعنا ملاحظاتكم بوضوح، وإصدار 5.3 Instant يقلل من الابتذال”.
مقارنة مباشرة بين الإصدارين
وفي مثال قدمته الشركة، عرضت الرد على نفس الاستفسار باستخدام نموذج GPT-5.2 Instant مقارنةً بنموذج GPT-5.3 Instant. في النموذج القديم، يبدأ رد الروبوت بعبارة: “أولًا وقبل كل شيء – أنت لست محطمًا”، وهي جملة شائعة أصبحت تثير حنق الجميع مؤخرًا.
أما في النموذج المحدث، فيقوم الروبوت بدلًا من ذلك بالإقرار بصعوبة الموقف، دون محاولة طمأنة المستخدم بشكل مباشر.
وكانت النبرة “التي لا تُطاق” لنموذج 5.2 تزعج المستخدمين لدرجة أن البعض ألغى اشتراكاته، واشتكى المستخدمون من أن هذا النوع من اللغة، حيث يتحدث إليك البوت مفترضًا أنك في حالة ذعر أو توتر بينما أنت تبحث فقط عن معلومة، يبدو وكأنه “تعالٍ” أو وصاية.
بين التعاطف والمبالغة في الطمأنة
وفي كثير من الأحيان، كان ChatGPT يرد على المستخدمين بتذكيرهم بضرورة التنفس ومحاولات أخرى للطمأنة، حتى عندما لا يستدعي الموقف ذلك. وجعل هذا المستخدمين يشعرون بأنه يتم التعامل معهم كأطفال في بعض الحالات، أو كما لو كان البوت يضع افتراضات عن حالتهم النفسية غير صحيحة بالمرة.
وكما أشار أحد مستخدمي Reddit مؤخرًا، بحسب ما نقل موقع “techcrunch”: “لم يسبق لأحد في التاريخ أن هدأ فعليًا لمجرد أن أحدهم قال له: اهدأ”.
ومن المفهوم أن تحاول OpenAI وضع نوعٍ من “ضوابط الحماية”، خاصةً وهي تواجه دعاوى قضائيةً متعددةً تتهم روبوت الدردشة بالتسبب في آثار نفسية سلبية للمستخدمين، وصلت في بعض الأحيان إلى الانتحار.
ولكن هناك توازنًا دقيقًا بين الرد بتعاطفٍ وبين تقديم إجاباتٍ سريعةٍ وواقعيةٍ. ففي النهاية، “جوجل” لا يسألك أبدًا عن مشاعرك عندما تبحث عن معلومة.


