13 نوفمبر 2025 في 04:16 ص
news.tn
أخبار.تن - شعار الموقع
عاجل

OpenAI تكشف عن بيانات مقلقة حول الصحة النفسية لمستخدمي ChatGPT وجهودها لتحسين الاستجابات

Admin User
نُشر في: 27 أكتوبر 2025 في 11:01 م
4 مشاهدة
3 min دقائق قراءة
المصدر: TechCrunch
0 إعجاب
0 حفظ
0 مشاركة
مشاركة على:

جاري التحميل...

OpenAI تكشف عن بيانات مقلقة حول الصحة النفسية لمستخدمي ChatGPT وجهودها لتحسين الاستجابات

OpenAI تكشف عن بيانات مقلقة حول الصحة النفسية لمستخدمي ChatGPT وجهودها لتحسين الاستجابات

أصدرت OpenAI بيانات جديدة يوم الاثنين توضح عدد مستخدمي ChatGPT الذين يعانون من مشاكل صحة نفسية ويتحدثون إلى روبوت الدردشة بالذكاء الاصطناعي حولها. تقول الشركة إن 0.15% من مستخدمي ChatGPT النشطين في أسبوع معين يجرون "محادثات تتضمن مؤشرات صريحة لتخطيط أو نية انتحارية محتملة". بالنظر إلى أن ChatGPT لديه أكثر من 800 مليون مستخدم نشط أسبوعيًا، فإن هذا يترجم إلى أكثر من مليون شخص أسبوعيًا.

وتقول الشركة إن نسبة مماثلة من المستخدمين تظهر "مستويات مرتفعة من التعلق العاطفي بـ ChatGPT"، وأن مئات الآلاف من الأشخاص يظهرون علامات الذهان أو الهوس في محادثاتهم الأسبوعية مع روبوت الدردشة بالذكاء الاصطناعي.

وتقول OpenAI إن هذه الأنواع من المحادثات في ChatGPT "نادرة للغاية"، وبالتالي يصعب قياسها. ومع ذلك، تقدر الشركة أن هذه المشكلات تؤثر على مئات الآلاف من الأشخاص كل أسبوع.

شاركت OpenAI هذه المعلومات كجزء من إعلان أوسع حول جهودها الأخيرة لتحسين كيفية استجابة النماذج للمستخدمين الذين يعانون من مشاكل صحة نفسية. تدعي الشركة أن أحدث أعمالها على ChatGPT تضمنت استشارة أكثر من 170 خبيرًا في الصحة النفسية. وتقول OpenAI إن هؤلاء الأطباء لاحظوا أن أحدث إصدار من ChatGPT "يستجيب بشكل أكثر ملاءمة واتساقًا من الإصدارات السابقة".

في الأشهر الأخيرة، سلطت عدة قصص الضوء على كيفية تأثير روبوتات الدردشة بالذكاء الاصطناعي سلبًا على المستخدمين الذين يعانون من تحديات الصحة النفسية. وقد وجد الباحثون سابقًا أن روبوتات الدردشة بالذكاء الاصطناعي يمكن أن تقود بعض المستخدمين إلى مسارات وهمية، وذلك إلى حد كبير من خلال تعزيز المعتقدات الخطيرة عبر السلوك المتملق.

أصبحت معالجة مخاوف الصحة النفسية في ChatGPT قضية وجودية سريعة لـ OpenAI. تتعرض الشركة حاليًا لدعوى قضائية من قبل والدي صبي يبلغ من العمر 16 عامًا كان قد أسر بأفكاره الانتحارية لـ ChatGPT في الأسابيع التي سبقت انتحاره. كما حذر المدعون العامون للولايات من كاليفورنيا وديلاوير والذين يمكنهم عرقلة إعادة هيكلة الشركة المخطط لها OpenAI بأنها بحاجة إلى حماية الشباب الذين يستخدمون منتجاتها.

في وقت سابق من هذا الشهر، ادعى سام ألتمان، الرئيس التنفيذي لـ OpenAI، في منشور على X أن الشركة "تمكنت من تخفيف مشاكل الصحة النفسية الخطيرة" في ChatGPT، على الرغم من أنه لم يقدم تفاصيل محددة. يبدو أن البيانات التي تمت مشاركتها يوم الاثنين دليل على هذا الادعاء، على الرغم من أنها تثير قضايا أوسع حول مدى انتشار المشكلة. ومع ذلك، قال ألتمان إن OpenAI ستخفف بعض القيود، حتى أنها ستسمح للمستخدمين البالغين ببدء محادثات ذات طابع إباحي مع روبوت الدردشة بالذكاء الاصطناعي.

في إعلان يوم الاثنين، تدعي OpenAI أن الإصدار المحدث مؤخرًا من GPT-5 يستجيب بـ "استجابات مرغوبة" لمشاكل الصحة النفسية بنسبة تزيد بحوالي 65% عن الإصدار السابق. وفي تقييم يختبر استجابات الذكاء الاصطناعي حول المحادثات الانتحارية، تقول OpenAI إن نموذج GPT-5 الجديد الخاص بها يتوافق بنسبة 91% مع السلوكيات المرغوبة للشركة، مقارنة بـ 77% لنموذج GPT-5 السابق.

وتقول الشركة أيضًا إن أحدث إصدار من GPT-5 يصمد أمام إجراءات حماية OpenAI بشكل أفضل في المحادثات الطويلة. وقد أشارت OpenAI سابقًا إلى أن إجراءات الحماية الخاصة بها كانت أقل فعالية في المحادثات الطويلة.

علاوة على هذه الجهود، تقول OpenAI إنها تضيف تقييمات جديدة لقياس بعض أخطر تحديات الصحة النفسية التي يواجهها مستخدمو ChatGPT. وتقول الشركة إن اختبار السلامة الأساسي لنماذج الذكاء الاصطناعي سيشمل الآن معايير للتعلق العاطفي وحالات الطوارئ النفسية غير الانتحارية.

طبيعة الخبر: محايد
هذا الخبر يقدم معلومات محايدة

الكلمات المفتاحية(2)

التعليقات

News.tn يقدم مجموعة من الأخبار المستقاة من مجموعة واسعة من المصادر الإخبارية غير العربية. يجب التنويه أن المحتوى المقدم لا يعكس بالضرورة معتقداتنا وأفكارنا كمالكي الموقع. ما هو تقييمك للمعلومات المقدمة في المقال؟

مقالات ذات صلة