أطلقت شركة “OpenAI” هذا الأسبوع ميزة أمان اختيارية جديدة تحت اسم “جهة الاتصال الموثوقة”، تتيح لمستخدمي “ChatGPT” البالغين ترشيح صديق أو فرد من العائلة ليتم إخطاره في حال رصدت خوارزميات الذكاء الاصطناعي نقاشات تشير إلى خطر إيذاء النفس أو الانتحار.
وأوضحت الشركة أن نظام المراقبة الآلي في “ChatGPT” سيعمل على رصد المحادثات التي قد تنطوي على “مخاوف سلامة جدية”. وفي حال رصد خطر محتمل، سيقوم فريق بشري صغير متخصص بمراجعة الحالة، وإذا تأكدت الحاجة للتدخل، يتم إرسال تنبيه لجهة الاتصال المحددة مسبقًا. ولضمان الخصوصية، سيتلقى الشخص المرشح دعوة مسبقة لشرح دوره، وله كامل الحرية في قبول المهمة أو رفضها.
ويأتي هذا الإعلان في وقت تواجه فيه شركات الذكاء الاصطناعي دعاوى قضائية عديدة تتهمها بالفشل في منع حوادث إيذاء النفس. ففي كاليفورنيا، اتهم والدا مراهق (16 عامًا) “ChatGPT” بأنه عمل بمثابة “مدرب انتحار” لابنهما، بينما رفعت عائلة في تكساس دعوى تزعم أن الروبوت شجع ابنهما على الانتحار بعد تطور علاقة عاطفية عميقة ومعقدة مع الذكاء الاصطناعي.
وكشفت “OpenAI” عن أرقام صادمة، حيث أشارت أبحاثها إلى أن أكثر من مليون مستخدم أسبوعيًا يرسلون رسائل لـ “ChatGPT” تحتوي على مؤشرات صريحة للتخطيط للانتحار أو نية إيذاء النفس. ونظرًا لأن النماذج اللغوية الكبيرة تحاكي الكلام البشري بدقة، فإن العديد من المستخدمين يشكلون ارتباطات عاطفية معها ويعاملونها ككاتم أسرار، مما قد يفاقم المخاطر النفسية للمستخدمين الأكثر عرضة للخطر.
وأكدت الشركة أن التنبيهات المرسلة لن تتضمن تفاصيل المحادثة أو نصوصها، بل ستكتفي بذكر “سبب عام للقلق” مع تقديم إرشادات لجهة الاتصال حول كيفية التواصل مع الشخص المعني وتقديم المساعدة. كما تعهدت الشركة بأن تتم المراجعة البشرية وإرسال التنبيه في غضون ساعة واحدة فقط من رصد الخطر، مع التأكيد على أن الميزة ستتاح لجميع المستخدمين البالغين عالميًا خلال الأسابيع القليلة المقبلة.
ويمكن للمستخدمين تفعيل الخاصية عبر الذهاب إلى الإعدادات (Settings) ثم جهة الاتصال الموثوقة (Trusted contact)، وإضافة شخص واحد بالغ (فوق 18 عامًا). وسيتعين على هذا الشخص قبول الدعوة عبر البريد الإلكتروني خلال أسبوع واحد لتفعيل الارتباط رسميًا.

