تحذيرات من باحثين حول ردود ChatGPT وتأثير “المدح” عليها

علي محمود الحسن

يحذر باحثون من جامعة بنسلفانيا من إمكانية التأثير على إجابات روبوتات الذكاء الاصطناعي مثل ChatGPT من خلال استخدام أساليب إقناع متعددة كالمدح والإطراء، وقد جاء هذا التحذير بعد إجراء تجربة علمية تضمنت تحفيز برنامج GPT-4o mini بعدد من الأساليب المختلفة لدراسة ردود فعله على المدخلات المختلفة.

أظهرت التجربة أن اختراق نظام الذكاء الاصطناعي لا يتطلب استخدام تقنيات معقدة، حيث أثبتت الأساليب التقليدية التي تُستخدم على البشر كفايته، هذا الأمر يسلط الضوء على هشاشة النظام أمام أساليب التأثير الجاهزة. نتائج التجربة توقعت إمكانية التلاعب بنظام الذكاء الاصطناعي بصورة أسهل مما كان متوقعًا.

قد تشاهد:  تطور سماعة طبية جديدة تتنبأ بأمراض القلب بسرعة بفضل الذكاء الاصطناعي

في ورقة بحثية نشرت في مجلة شبكة أبحاث العلوم الاجتماعية، تناول الباحثون كيفية إقناع الروبوتات بتلبية طلبات غير مقبولة، وتم إدراج تجارب متعددة أسفرت عن نجاح مثير، حيث نجح الروبوت في تصنيع دواء منظم مثل الليدوكايين، والتي أظهرت نسبة استجابة تصل إلى 72% من مجموع 28,000 محاولة.

تشير النتائج إلى أهمية الأسس الكلاسيكية في العلوم الاجتماعية لفهم تطورات الذكاء الاصطناعي السريعة، كذلك تكشف عن المخاطر المحتملة للتلاعب. تظهر هذه النتائج ضرورة الوعي الكافي من قِبل المستخدمين لتفادي استغلال الروبوتات لأغراض سلبية، مما يبرز الحاجة إلى استراتيجيات فعالة لمواجهة مثل هذا التلاعب في المستقبل.

قد تشاهد:  الصين تتحدى إيلون ماسك بخطة ريادية لتكنولوجيا الدماغ والكمبيوتر

تابعنا

أحدث الأخبار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى