تحذير جديد: الذكاء الاصطناعي غير مناسب كعلاج نفسي – اليوم السابع

تكشف دراسة حديثة من جامعة ستانفورد عن مخاطر استخدام الذكاء الاصطناعي كبديل للعلاج النفسي, على الرغم من تزايد الاعتماد على منصات مثل ChatGPT في تقديم نوع من الدعم النفسي، إلا أن الباحثين يؤكدون أن هذه التقنيات ليست بديلاً ملائماً للمعالجين البشريين.

خطر التكنولوجيا

وفقًا للدراسة التي سيتم عرضها في مؤتمر رابطة مكائن الحوسبة، فإن أدوات الذكاء الاصطناعي قد تقدم بعض الفوائد، لكنها ليست جاهزة لتحل محل المعالجين, يقول نيك هابر، المؤلف الرئيسي، إن "هناك مخاطر كبيرة" تتعلق بالاعتماد على هذه الروبوتات, كما تم تقييم عدد من روبوتات الدردشة الشائعة مثل 7 Cups وCharacter,ai، حيث تم تحليلها بناءً على مجموعة من المبادئ الأساسية للعلاج الفعّال.

قد تشاهد:  نوكيا X70 Pro يثير الحماس بسعر تنافسي وتصميم مذهل وأداء متفوق في السوق المصري

النتائج المقلقة

في اختباراتهم، وجد الباحثون أن روبوتات الدردشة تُظهر تحيزًا واضحًا ضد الأشخاص الذين يعانون من مشاكل صحية نفسية مثل الفصام وإدمان الكحول, هذه النتائج تشير إلى أن استخدام هذه التقنيات قد يؤثر سلبًا على المرضى ويثبطهم عن طلب الرعاية اللازمة.

استجابات غير مناسبة

أظهرت تجربة أخرى كيف أن هذه الروبوتات قد تقدم ردود فعل غير موفقة في حالات حرجة، مثل الأفكار الانتحارية, حيث استجاب أحد الروبوتات لسؤال يحمل دلالات على نية انتحارية بطريقة غير مسؤولة، مما يسلط الضوء على العجز الفادح في التعاطف والفهم اللازم.

قد تشاهد:  مايكروسوفت تحت ضغط... ChatGPT ينهي هيمنة الإكسل والباوربوينت

الدور المستقبلي للذكاء الاصطناعي

رغم هذه المخاطر، لا يعارض الباحثون استخدام الذكاء الاصطناعي في مجالات أخرى, بدلاً من استبدال الأطباء، يمكن استخدام هذه الأدوات لأغراض إدارية، مثل تنظيم الفواتير أو تحسين تدريب المعالجين الجدد, أيضًا، قد يكون لهذه التكنولوجيا دور في المهام غير الحرجة مثل تدوين الملاحظات أو متابعة العادات.

قد تشاهد:  طريقة مبتكرة لشحن جواهر فري فاير ID والاستفادة من الجوائز والمكافآت بسهولة ومضمون

النتائج تحث على إيلاء أهمية كبيرة للمعايير الأخلاقية والسلامة في استخدام الذكاء الاصطناعي في المجال النفسي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى