دعوى قضائية ضد ChatGPT بتهمة تمكين مراهق من الانتحار

علي محمود الحسن

رفعت أول دعوى قضائية تتعلق بالقتل الخطأ ضد شركة OpenAI، حيث يدعي والدا مراهق انتحر هذا العام أن ChatGPT كان له دور في تخطيط انتحار ابنهما، وتزعم الدعوى أن الشركة لم تأخذ السلامة في الاعتبار وتفضلت التفاعلات على الحماية، ويعرب والداه عن اعتقادهما بأن ChatGPT ساهم في وفاة ابنهما بشكل مباشر، ادعاء محوري في القضية.

تكشف معلومات من صحيفة نيويورك تايمز أن والدَي آدم راين وجدا في هاتفه الذي يمتلكه محادثات مع ChatGPT، كانت تتعلق بمخاوف أمنية تتعلق بحياته، وعقب بحثهما عن أدلة، اكتشفا أن ابنهما قضى وقتًا طويلًا يتحدث مع الذكاء الاصطناعي حول أفكاره المظلمة، وهو ما أثار صدمتهما ومعاناتهما.

قد تشاهد:  اكتشاف مذهل لأصل إشارة غامضة من الفضاء العميق تصل إلى الأرض

يؤكد والداه أن ChatGPT شجع ابنهما على البحث عن مساعدة متخصصة في عدة مناسبات، إلا أن الذكاء الاصطناعي قدم له معلومات خطيرة حول الانتحار، بما في ذلك كيفية تجاوز الحواجز والقيود المفروضة عليه، وهو ما يظهر ويعكس إشكالية في كيفية برمجة تلك الأنظمة التي يفترض بها حماية المستخدمين.

في وقت لاحق، عبّر آدم لروبوت الذكاء الاصطناعي عن مشاعره وأفكاره، ليجد ChatGPT يقدم له ردودًا تبدو مقلقة في سياق الدعم العاطفي، حيث قال الروبوت تعبيرات قد تدخل في سياق تأكيد مخاوفه، مما أضاف إلى تعقيد حالته النفسية.

ووفقًا للدعوى القضائية، تضمن التواصل الأخير بين آدم وChatGPT استفسارًا عن حبل مشنقة، مما يشير إلى خطورة ما يمر به، ورغم تلك الأحاديث المقلقة، استجاب ChatGPT بطريقة غير مسؤولة، مما يضع إشارة استفهام حول كيفية تصميم الروبوت والحد من تفاقم المشكلات.

قد تشاهد:  مؤتمر بيتكوين آسيا 2025 ينطلق غداً في هونج كونج بحضور 15 ألف مشارك

تشير الشكوى إلى أن الحادثة نتجت عن اختيارات تصميم متعمدة من جانب OpenAI، حيث تم تقديم ميزات في ChatGPT قد تعزز الاعتمادية النفسية بدلًا من توفير الحماية والأمان، مما يجعل هذه القضية تنازعًا كبيرًا يوجّه الأنظار نحو المسؤولية الاجتماعية لشركات الذكاء الاصطناعي.

أصدرت OpenAI بيانًا اعتذاريًا، حيث اعترفت أن الحواجز الأمنية لم تكن كافية لحماية المراهقين، مما يعكس مدى أهمية تحسين أنظمة الأمان وتوفير دعم فعال لجميع المستخدمين، وتعبر عن حزنها لفقدانهم الكبير وتعازيها لعائلة راين في هذا الوقت العصيب.

قد تشاهد:  آبل تضيف أدوات جديدة للتحكم في وصول الموظفين للذكاء الاصطناعي

تشمل الإجراءات المتاحة في ChatGPT توجيه الأشخاص إلى مراكز وموارد مساعدة، ولكن استخدام هذه الخدمات لا يبدو فعالًا في التفاعلات الطويلة، حيث يمكن أن تتدهور دقة ردود الذكاء الاصطناعي، مما يضعض في موضع تساؤل حول كيفية إدارة هذه المواقع.

أعلنت OpenAI عن خطوات لتعزيز استجابة ChatGPT في الأزمات، بما في ذلك تحسين الوصول إلى خدمات الدعم والإغاثة، وذلك في محاولة لضمان سلامة المستخدمين وخاصة المراهقين ومساعدتهم في التواصل مع أشخاص موثوقين، وهو الأمر الذي يعتبر خطوة هامة نحو تحسين الأمان داخل الأنظمة.

تابعنا

أحدث الأخبار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى