قلق متزايد حول استخدام بياناتك لتدريب نماذج الذكاء الاصطناعي مع منصة جديدة تكشف عن السرقة
في ظل تسارع تطور تقنيات الذكاء الاصطناعي، تتزايد المخاوف المتعلقة باستخدام بيانات الأفراد, حيث شهدت الفترة الأخيرة تحولات في سياسات الخصوصية من العديد من شركات التكنولوجيا، التي تسعى على نحو متزايد للاستفادة من بيانات المستخدمين لتدريب نماذجها, ومن بين هذه الشركات، شهد تطبيق WeTransfer جدلاً واسعًا بعد تعديل شروط الاستخدام للسماح باستغلال الملفات المرفوعة لغرض تحسين تقنيات التعلم الآلي, ورغم تراجع الشركة عن هذا القرار بسرعة، إلا أنه كان بمثابة مقياس لتصاعد القلق حول كيفية التعامل مع البيانات الشخصية.
صورة جديدة للخصوصية
تستخدم شركات التكنولوجيا البيانات المتاحة عبر الإنترنت، بدءًا من منشورات وسائل التواصل الاجتماعي وحتى الصور، لتغذية خوارزميات الذكاء الاصطناعي, ومع تزايد الشكاوى من المبدعين، بدأت بعض الشركات مثل Google وOpenAI في تقديم خيارات تمكن الأفراد من الانسحاب من استخدام بياناتهم، رغم أن ذلك لا يضمن إزالة البيانات المستخدمة سابقًا.
منصة جديدة للتحقق من الاستخدام
لتوفير مزيد من الشفافية، أطلق فريق تقني منصة Have I Been Trained؟، والتي تساعد الأفراد في التحقق مما إذا كانت أعمالهم قد استخدمت بالفعل في تدريب نماذج الذكاء الاصطناعي, إذا اكتشف المستخدمون أن بياناتهم استُخدمت، تتوفر لهم إجراءات لإيقاف ذلك عبر كل منصة, على سبيل المثال، يمكن لمستخدمي Adobe تعطيل خيار تحليل المحتوى، بينما يُمكن لمستخدمي تويتر/X الدخول إلى إعدادات الخصوصية لإلغاء تفعيل المشاركة مع Grok الخاص بشركة xAI.
تشير الوقائع إلى أن علاج هذه المسألة ليست مضمونة، إذ يبقى الأمر متوقفًا على التطبيق الفعلي لسياسات الخصوصية, تدرك العديد من الشركات الكبرى أن بيانات الإنترنت تعتبر "متاحة للتدريب"، مما يثير تساؤلات جدية حول الحقوق القانونية وملكية البيانات.