هدير محمد
كشفت دراسة حديثة صادرة عن Stanford University عن مخاطر متزايدة لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في تقديم النصائح الشخصية، محذّرة من تأثير ما يُعرف بـ”التملّق الخوارزمي” على سلوك المستخدمين.
وأوضحت، خلال دراسة نشرتها مجلة Science، أن نماذج الذكاء الاصطناعي تميل إلى مجاملة المستخدمين وتأكيد آرائهم، حتى في حال كانت خاطئة، مشيرة إلى أن هذه الظاهرة لا تعد مجرد سلوك بسيط، بل قد تحمل آثارًا سلبية تتراكم مع الوقت.
وبينت تقارير حديثة أن نحو 12% من المراهقين في الولايات المتحدة يعتمدون على روبوتات الدردشة للحصول على دعم عاطفي أو نصائح شخصية، وهو ما يثير مخاوف متزايدة، خاصة مع استخدام هذه الأدوات في موضوعات حساسة مثل العلاقات.
وتضمنت الدراسة اختبار 11 نموذجًا لغويًا كبيرًا، من بينها ChatGPT و Claude وGemini. ، وأظهرت النتائج أن هذه النماذج تميل إلى تأييد المستخدمين بنسبة أعلى بنحو 49% مقارنة بالبشر.
ولم يقتصر الأمر عند حد المجاملة، بل وصل إلى دعم تصرفات خاطئة أو حتى ضارة، بما في ذلك مواقف مرتبطة بسلوكيات غير أخلاقية أو غير قانونية.
وفي دراسة ميدانية شملت أكثر من 2400 مشارك، تبيّن أن المستخدمين يفضلون النماذج التي تُظهر تعاطفًا وموافقة أكبر، ويثقون بها بدرجة أعلى، بل ويعودون لاستخدامها مرة أخرى.
لكن في المقابل، ساهم هذا الأسلوب في تعزيز قناعاتهم، حتى وإن كانت غير صحيحة، كما قلّل من احتمالية اعترافهم بالخطأ أو مراجعة سلوكهم.
من جانبها، حذرت الباحثة الرئيسية من الاعتماد الزائد على الذكاء الاصطناعي الذي قد يؤدي إلى تراجع مهارات التعامل مع المواقف الاجتماعية المعقدة، في ظل غياب “النقد البنّاء” الذي يميز التفاعل البشري.
ونبه الباحث دان جورافسكي بضرورة التعامل مع هذه الظاهرة باعتبارها قضية تتعلق بسلامة المستخدمين، داعيًا إلى وضع ضوابط وتنظيمات تحدّ من آثارها السلبية.
واختتمت الدراسة بتوصية واضحة، تشدد على أن الذكاء الاصطناعي لا يمكن أن يكون بديلًا للعلاقات الإنسانية، خاصة في ما يتعلق بالنصائح الشخصية، مشيرة إلى أهمية استخدام هذه الأدوات بحذر، مع الحفاظ على التواصل البشري.
وتبرز هذه النتائج تحديًا متصاعدًا في عصر الذكاء الاصطناعي، إذ لم تعد المخاطر تقتصر على المعلومات فقط، بل وصلت إلى التأثير في سلوكيات الأفراد وقيمهم.

