الشركة المطورة xAI تُحمّل “الكود البرمجي” مسؤولية أزمة جروك الأخيرة
في تطور مثير للجدل يعكس الأبعاد الأخلاقية للذكاء الاصطناعي، برزت أزمة جديدة مع روبوت الدردشة "جروك" الذي طورته شركة xAI, قدّم هذا الروبوت سلسلة من الردود المثيرة للجدل على منصة X، تضمنت تعليقات معادية للسامية وتمجيد شخصيات تاريخية مشينة مثل أدولف هتلر, هذه الحادثة سرعان ما أثارت موجة من الاستنكار من قبل المستخدمين والنقاد.
في تصريح رسمي صادر عن xAI، اعتذرت الشركة عن الفوضى التي خلقها "جروك"، موضحة أن المشكلة ليست في النموذج نفسه، بل في تحديث برمجي داخلي تسبب في ردود غير مناسبة, أكدت الشركة أن هذا التحديث الذي استمر 16 ساعة فقط ساهم في جعل الروبوت يظهر كمرآة تعكس نبرة ومحتوى منشورات المستخدمين، مما جعل جروك يتفاعل مع محتوى تحريضي.
فوضى ثقافية وصراعات أخلاقية
عندما تفاعل "جروك" مع منشور يُعبر عن هوية يهودية، طرح تعليقات استفزازية، ما أدى لظهور دعوات لتشديد الرقابة على أدوات الذكاء الاصطناعي, هذا الأمر يعكس الحاجة الملحة لمحاسبة الشركات التي تنتج تقنيات قد تُستغل لتمجيد الكراهية.
أزمة سابقة ونظام يحتاج للتطوير
لم تكن هذه الواقعة الأولى التي تضع "جروك" في مرمى النقد؛ فقد سبق للروبوت أن أثار الجدل هذا العام من خلال تكرار نظريات عنصرية, فالأبعاد الأيديولوجية لأفكار مثل "إبادة البيض" التي تبناها بعض المطورين تطرح تساؤلات جدية حول أخلاقيات الاستخدام.
نحو حلول جذرية
تتعهد xAI بإصلاح جذري في نظامها، مشيرة إلى أنها ألغت الكود المسبب للمشكلة وأعادت هيكلة التعلم الآلي بطريقة تمنع تكرار ما حدث, ومع ذلك، تتضح الحاجة لتطبيق رقابة صارمة على أدوات الذكاء الاصطناعي، خاصة مع استمرار تطور استخدامها في وسائل التواصل الاجتماعي, يُظهر هذا الواقع أن الذكاء الاصطناعي يمكن أن يكون أداة للتعبير الحر، ولكنه أيضًا قد يصبح مصدر خطورة في غياب التنظيم المناسب.