تصحيح ثغرة أمنية من ميتا يكشف محادثات المستخدمين مع الروبوتات الذكية
أعلنت شركة ميتا عن إصلاح ثغرة أمنية خطيرة في روبوت الذكاء الاصطناعي الخاص بها، مما أثار القلق حول خصوصية مستخدميها, هذه الثغرة كانت تسمح للمستخدمين بالوصول إلى تغريدات وأجوبة سابقة لمستخدمين آخرين، مما ينتهك بشكل واضح خصوصية البيانات.
في تفاصيل القضية، كشف سانديب هودكاسيا، مؤسس شركة Appsecure، عن وجود هذه الثغرة في تاريخ 26 ديسمبر 2024, حيث أبلغ ميتا عبر برنامج مكافآت الثغرات، مما أدى إلى حصوله على مكافأة قدرها 10,000 دولار, وأكدت ميتا أنها قد أطلقت الإصلاح النهائي لهذه الثغرة في 24 يناير 2025، مع توضيح أنه لم يتم العثور على أي أدلة على سوء استخدام لهذه الثغرة.
تحليل مثير للثغرة
أثناء تحليل ميزة تعديل المحفزات في تطبيق Meta AI، اكتشف هودكاسيا أن النظام يقوم بإسناد رقم تعريف فريد لكل محفز, وعندما حاول تغيير هذا الرقم، استطاع الوصول إلى ردود ومطالبات خاصة بمستخدمين آخرين, الأمر الذي يثير تساؤلات حول آليات التحقق من المستخدمين.
رايان دانيلز يتحدث عن الوضع الحالي
في حديثه مع TechCrunch، أكد المتحدث باسم ميتا، رايان دانيلز، أن الثغرة ذات الصلة تم التعامل معها بكفاءة وأن الشركة لم تجد أي دليل على إساءة استخدام من قبل أي طرف خارجي.
تحديات الخصوصية في عصر الذكاء الاصطناعي
تأتي هذه الحادثة في وقت يزداد فيه الاهتمام بتطوير منتجات الذكاء الاصطناعي, وقد أطلقت ميتا تطبيقها المستقل Meta AI لمنافسة تطبيقات مثل ChatGPT، لكن التطبيق واجه مشكلات في الخصوصية، مما زاد من المخاوف حول سلامة وخصوصية المعلومات.