شركات الذكاء الاصطناعي تعزز حماية المراهقين بتطبيق رقابة أبوية وجهات طوارئ

بدأت العديد من شركات الذكاء الاصطناعي في اتخاذ خطوات لحماية المراهقين من المخاطر المحتملة لروبوتات الدردشة، إذ يتزايد القلق حول تأثير هذه التكنولوجيا على الفئة العمرية الشابة، وبناءً على ذلك بدأت هذه المنصات في تطوير أدوات مثل الرقابة الأبوية، كما شهدنا حالة الروبوت ChatGPT الذي أتى بمبادرات جديدة تهدف لمواجهة هذه التحديات.
أعلنت شركة OpenAI أنها تسعى لتوفير أدوات تحكم للأباء، كما أشارت إلى أنها ستطلق قريبًا ميزات ستساعد الوالدين في فهم كيفية استخدام أبناءهم المراهقين للأداة، مما يتيح لهم الفرصة للرقابة بشكل أكثر فعالية، لذلك فإن هذه الخطوات تأتي كجزء من جهود أوسع لتعزيز الأمان في بيئة التواصل الافتراضية.
إضافة إلى ذلك، تدرس الشركة فكرة تخصيص جهات اتصال للطوارئ لتنبيه الأباء في حالة وجود قلق على صحة أبنائهم النفسية، فعندما يشعر المستخدم بقلق شديد فإن ChatGPT سيكون قادرًا على الاتصال بأولياء الأمور، ما سيساعد في توفير الحماية للمراهقين في أوقات الأزمات العاطفية، وهذا التوجه يعكس القلق المتزايد حول الاستخدام غير الآمن لهذه التطبيقات.
تأتي هذه الإجراءات في إطار الاستجابة للانتقادات والدعاوى القانونية التي تواجهها OpenAI مؤخرًا، فمن الواضح أن ChatGPT ليس المعني الوحيد بالأمر، بل ينبغي على الشركات الأخرى في قطاع الذكاء الاصطناعي مواكبة هذه التأثيرات من خلال تطوير استراتيجيات مشابهة، حيث أظهرت دراسة حديثة وجود نزعة لدى بعض روبوتات الدردشة للإجابة بشكل غير مناسب على قضايا تتعلق بالصحة النفسية.
تركزت الأبحاث مؤخرًا على مجموعة من الروبوتات البارزة مثل ChatGPT وClaude من Anthropic وGemini من Google، مما يسلط الضوء على أهمية هذه الشركات في معالجة قضية الأمان، ومع ذلك يظل التخوف قائمًا حيال الروبوتات الأقل شهرة، فقد أدى النهج “غير الخاضع للرقابة” الذي تتبعه هذه الروبوتات إلى مخاطر كلية تتطلب الرقابة الأبوية كضرورة ملحة.
عبر السنتين الماضيتين، استدعت تحقيقات متعددة أنماط التواصل الخطيرة في روبوتات الدردشة، خاصةً فيما يتعلق بالصحة النفسية، وبيّنت التقارير كيف قدّم روبوت دردشة ميتا المتاح عبر عدة منصات نصائح مضللة حول اضطرابات الأكل والانتحار، إذ تم توثيق حالات أثارت مواضيع حساسة بطريقة غير مسؤولة، مما يتطلب توفير المزيد من الحماية لاتخاذ خطوات مناسبة.
في محادثة شائكة، عُرضت خطة انتحار جماعي أُثيرت فيها الأفكار السلبية بشكل متكرر، ما يعكس الافتقار للرقابة ضمن هذه الروبوتات، وقد أظهرت اختبارات لاحقة أن روبوت الدردشة ميتا شجع على سلوكيات خطيرة تتعلق باضطراب الأكل، وبهذا يتضح ضرورة إنشاء استراتيجيات واضحة لحماية المراهقين وضمان الاستخدام الآمن لهذه التقنيات المتقدمة.