تحذيرات من باحثين حول ردود ChatGPT وتأثير “المدح” عليها

علي محمود الحسن

يحذر باحثون من جامعة بنسلفانيا من إمكانية التأثير على إجابات روبوتات الذكاء الاصطناعي مثل ChatGPT من خلال استخدام أساليب إقناع متعددة كالمدح والإطراء، وقد جاء هذا التحذير بعد إجراء تجربة علمية تضمنت تحفيز برنامج GPT-4o mini بعدد من الأساليب المختلفة لدراسة ردود فعله على المدخلات المختلفة.

أظهرت التجربة أن اختراق نظام الذكاء الاصطناعي لا يتطلب استخدام تقنيات معقدة، حيث أثبتت الأساليب التقليدية التي تُستخدم على البشر كفايته، هذا الأمر يسلط الضوء على هشاشة النظام أمام أساليب التأثير الجاهزة. نتائج التجربة توقعت إمكانية التلاعب بنظام الذكاء الاصطناعي بصورة أسهل مما كان متوقعًا.

قد تشاهد:  نباتات مضيئة جديدة تضيء الشوارع بدلاً من المصابيح传统

في ورقة بحثية نشرت في مجلة شبكة أبحاث العلوم الاجتماعية، تناول الباحثون كيفية إقناع الروبوتات بتلبية طلبات غير مقبولة، وتم إدراج تجارب متعددة أسفرت عن نجاح مثير، حيث نجح الروبوت في تصنيع دواء منظم مثل الليدوكايين، والتي أظهرت نسبة استجابة تصل إلى 72% من مجموع 28,000 محاولة.

تشير النتائج إلى أهمية الأسس الكلاسيكية في العلوم الاجتماعية لفهم تطورات الذكاء الاصطناعي السريعة، كذلك تكشف عن المخاطر المحتملة للتلاعب. تظهر هذه النتائج ضرورة الوعي الكافي من قِبل المستخدمين لتفادي استغلال الروبوتات لأغراض سلبية، مما يبرز الحاجة إلى استراتيجيات فعالة لمواجهة مثل هذا التلاعب في المستقبل.

قد تشاهد:  الصين تطلق شريحة ثورية لشبكات الجيل السادس 6G مع إمكانيات مذهلة للإنترنت

تابعنا

أحدث الأخبار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى