OpenAI تكشف عن تقديرات جديدة لمستخدمي ChatGPT الذين يظهرون علامات طوارئ صحية نفسية
جاري التحميل...

OpenAI تكشف عن تقديرات جديدة لمستخدمي ChatGPT الذين يظهرون علامات طوارئ صحية نفسية
أصدرت شركة OpenAI تقديرات جديدة لعدد مستخدمي ChatGPT الذين يظهرون علامات محتملة لحالات طوارئ صحية نفسية، بما في ذلك الهوس أو الذهان أو الأفكار الانتحارية.
وقالت الشركة إن حوالي 0.07% من مستخدمي ChatGPT النشطين في أسبوع معين أظهروا مثل هذه العلامات، مضيفة أن روبوت الدردشة الخاص بها المدعوم بالذكاء الاصطناعي يتعرف على هذه المحادثات الحساسة ويستجيب لها.
وبينما تؤكد OpenAI أن هذه الحالات "نادرة للغاية"، قال النقاد إن نسبة صغيرة كهذه قد تصل إلى مئات الآلاف من الأشخاص، حيث وصل عدد مستخدمي ChatGPT النشطين أسبوعياً مؤخراً إلى 800 مليون، وفقاً لرئيسها التنفيذي سام ألتمان.
ومع تزايد التدقيق، قالت الشركة إنها أنشأت شبكة من الخبراء حول العالم لتقديم المشورة لها.
وقالت الشركة إن هؤلاء الخبراء يضمون أكثر من 170 طبيباً نفسياً وأخصائياً نفسياً وأطباء رعاية أولية مارسوا عملهم في 60 دولة.
وقد وضعوا سلسلة من الاستجابات في ChatGPT لتشجيع المستخدمين على طلب المساعدة في العالم الحقيقي، وفقاً لـ OpenAI.
لكن هذه النظرة على بيانات الشركة أثارت الدهشة بين بعض المتخصصين في الصحة النفسية.
قال الدكتور جيسون ناغاتا، الأستاذ الذي يدرس استخدام التكنولوجيا بين الشباب في جامعة كاليفورنيا، سان فرانسيسكو: "على الرغم من أن 0.07% تبدو نسبة صغيرة، إلا أنها على مستوى السكان مع مئات الملايين من المستخدمين، يمكن أن تكون عدداً كبيراً من الأشخاص فعلياً".
وأضاف الدكتور ناغاتا: "يمكن للذكاء الاصطناعي أن يوسع نطاق الوصول إلى دعم الصحة النفسية، ويدعم الصحة النفسية بطرق معينة، لكن يجب أن نكون على دراية بالقيود".
وتقدر الشركة أيضاً أن 0.15% من مستخدمي ChatGPT يجرون محادثات تتضمن "مؤشرات صريحة لتخطيط أو نية انتحارية محتملة".
وقالت OpenAI إن التحديثات الأخيرة لروبوت الدردشة الخاص بها مصممة "للاستجابة بأمان وتعاطف لعلامات محتملة للوهم أو الهوس" وملاحظة "إشارات غير مباشرة لخطر إيذاء النفس أو الانتحار المحتمل".
كما تم تدريب ChatGPT على إعادة توجيه المحادثات الحساسة "الناشئة من نماذج أخرى إلى نماذج أكثر أماناً" عن طريق فتحها في نافذة جديدة.
ورداً على أسئلة بي بي سي حول الانتقادات المتعلقة بأعداد الأشخاص المحتمل تأثرهم، قالت OpenAI إن هذه النسبة الصغيرة من المستخدمين تمثل عدداً كبيراً من الأشخاص وأشارت إلى أنها تأخذ التغييرات على محمل الجد.
تأتي هذه التغييرات في الوقت الذي تواجه فيه OpenAI تدقيقاً قانونياً متزايداً بشأن طريقة تفاعل ChatGPT مع المستخدمين.
في إحدى أبرز الدعاوى القضائية التي رُفعت مؤخراً ضد OpenAI، رفع زوجان من كاليفورنيا دعوى قضائية ضد الشركة بسبب وفاة ابنهما المراهق، زعما فيها أن ChatGPT شجعه على إنهاء حياته في أبريل.
وقد رفع الدعوى والدا آدم رين البالغ من العمر 16 عاماً، وكانت أول إجراء قانوني يتهم OpenAI بالتسبب في وفاة غير مشروعة.
وفي قضية منفصلة، نشر المشتبه به في حادثة قتل وانتحار وقعت في أغسطس في غرينتش، كونيتيكت، ساعات من محادثاته مع ChatGPT، والتي يبدو أنها غذت أوهام الجاني المزعوم.
يعاني المزيد من المستخدمين من الذهان الناتج عن الذكاء الاصطناعي حيث "تخلق روبوتات الدردشة وهماً بالواقع"، حسبما قالت البروفيسور روبن فيلدمان، مديرة معهد قانون وابتكار الذكاء الاصطناعي في جامعة كاليفورنيا للقانون. وأضافت: "إنه وهم قوي".
وقالت إن OpenAI تستحق الثناء على "مشاركتها للإحصائيات وجهودها لتحسين المشكلة" لكنها أضافت: "يمكن للشركة أن تضع جميع أنواع التحذيرات على الشاشة، لكن الشخص المعرض للخطر النفسي قد لا يكون قادراً على الانتباه لتلك التحذيرات".
