خالد الفوي
من مخاطبة الروبوت بوصفه “عبقريًا” إلى استحضار عوالم الخيال العلمي مثل “ستار تريك”؛ تزدحم شبكة الإنترنت بنصائح غريبة حول كيفية استخلاص أفضل النتائج من نماذج الذكاء الاصطناعي.
ومع تصاعد هوس “هندسة الأوامر” (Prompt Engineering)، يبرز سؤال جوهري: هل تستجيب الخوارزميات فعليًا للطف البشر أو تهديداتهم، أم أن الأمر مجرد “وهم رقمي”؟
مفاجأة “ستار تريك” واختبار التفكير الإيجابي
في تجربة مثيرة، حاول مجموعة من الباحثين بحسب تقرير نشرته “بي بي سي” اختبار مدى تأثير “التفكير الإيجابي” على دقة الخوارزميات. تضمنت المحاولات إغداق المديح على الروبوت ووصفه بالذكاء، أو تشجيعه بعبارات تفاؤلية مثل “سيكون هذا ممتعًا!”. ورغم أن معظم هذه الأساليب لم تحقق فرقًا ملموسًا، إلا أن تقنية واحدة أذهلت الجميع؛ فعندما طُلب من الذكاء الاصطناعي التظاهر بأنه شخصية في مسلسل الخيال العلمي الشهير “ستار تريك”، تحسنت قدراته في حل المسائل الرياضية الأساسية بشكل ملحوظ.
ويعلق جولز وايت، أستاذ علوم الكمبيوتر في جامعة فاندربيلت، على هذا المشهد قائلًا: “يعتقد الكثيرون أن هناك صيغة سحرية من الكلمات تجعل النماذج اللغوية تحل المشكلات المعقدة، لكن الحقيقة أن الأمر لا يتعلق باختيار الكلمات بحد ذاتها، بل بكيفية التعبير الجوهري عن الأهداف والمهام”.
استثمار “اللباقة”.. عشرات الملايين من الدولارات
في عام 2025، أثار أحد المستخدمين جدلًا حول التكلفة الطاقية لكلمات المجاملة مثل “من فضلك” و”شكرًا”. وجاء الرد من سام ألتمان، الرئيس التنفيذي لشركة “OpenAI”، ليؤكد أن هذه الكلمات كلفت الشركة “عشرات الملايين من الدولارات”، واصفًا إياها بأنها أموال “أُنفقت في مكانها الصحيح”.
لكن من الناحية التقنية، تظل الفائدة العملية للطف محل شك؛ فالنماذج اللغوية تعمل عبر تحليل “التوكنز” (الوحدات الخام التي يفهم من خلالها الحاسوب اللغة البشرية) إحصائيًا، مما يجعل تأثير الفاصلة الزائدة أو الكلمة اللطيفة أمرًا يصعب التنبؤ به. فبينما تشير دراسات إلى أن اللباقة قد تحسن النتائج في لغات معينة، أظهرت نتائج أخرى أن “التهذيب المفرط” في اللغة اليابانية، مثلًا، قد يؤدي إلى نتائج أقل دقة.
بعيدًا عن الأساطير، وضع الخبراء قائمة بالتقنيات التي تحقق نتائج فعلية ومستدامة:
تعدد الخيارات
بدلاً من طلب إجابة واحدة، اطلب ثلاث أو خمس مسودات؛ فهذا يجبر المستخدم على التفاعل النقدي والمقارنة بين الجودة والأسلوب.
قوة المثال
تظل الأمثلة أسرع طريق للفهم. بدلًا من سرد تعليمات مطولة حول أسلوب الكتابة، زود الروبوت بنماذج سابقة من رسائلك ليحاكي “نبرة صوتك” بدقة.
إدارة المقابلات
في المهام المعقدة مثل كتابة “وصف وظيفي”، اطلب من الذكاء الاصطناعي أن يطرح عليك أسئلة متتالية حتى يجمع كافة التفاصيل اللازمة، بدلًا من إعطائه معطيات ناقصة.
فخ “تقمص الأدوار”
يحذر الباحث ساندر شولهوف من أن إعطاء صفة “خبير” للروبوت في المسائل العلمية قد يدفعه نحو “الهلوسة” الرقمية والثقة الزائدة بالمعلومات الخاطئة. يفضل ترك تقمص الأدوار للمهام الإبداعية فقط.
الحياد التام
تجنب توجيه الروبوت نحو استنتاج مسبق؛ فإذا طلبت منه المقارنة بين منتجين مع إظهار ميلك لأحدهما، فستحصل غالباً على إجابة تعزز انحيازك الشخصي بدلاً من تقديم تحليل موضوعي.
وتشير الاستطلاعات إلى أن 70% من المستخدمين يصرون على التعامل بلطف مع الذكاء الاصطناعي، ليس فقط لتحسين الأداء، بل أحيانًا كنوع من “التأمين المستقبلي” ضد تمرد الآلات.
ورغم أن الروبوت لا يمتلك مشاعر لتجرحها، إلا أن الخبراء، ومن بينهم الفيلسوف إيمانويل كانط، يرون أن اللباقة تعود بالنفع على القائل نفسه؛ فاعتياد اللطف مع “الآلة” يرسخ سلوكًا إنسانيًا نبيلًا ينعكس إيجابًا على التعاملات البشرية في الحياة اليومية.


