ChatGPT يواجه تحديات جديدة في تلبية استفسارات المستخدمين

يعكف إيلون ماسك على المنافسة مع ChatGPT من OpenAI من خلال تطوير روبوت المحادثة الخاص به والمعروف باسم Grok، ولقد انطلق الرئيس التنفيذي لشركة xAI في الترويج لنموذجه كالأكثر قوة، ومع ذلك، رغم جميع ادعاءاته حول Grok 4، شهدنا ردود فعل بارزة من ChatGPT كتبت قصة جديدة في عالم الذكاء الاصطناعي، مما أثار فضول المستخدمين.
على منصة X، قام مستخدم يدعى كول تريجاسكيس بمشاركة لقطة شاشة لمحادثته مع نموذج ChatGPT 5، حيث أبدى روبوت المحادثة استسلامه بعد تفكير استمر 34 ثانية، وبكل وضوح عبر عن عدم معرفته في تلك اللحظة، مما يبرز أهمية الشفافية في تقديم المعلومات، وهو ما يُعتبر خطوة جديرة بالاهتمام في تطور الذكاء الاصطناعي.
تعاني نماذج اللغات الكبيرة مثل ChatGPT من مسألة الهلوسة، ومن المعروف أن هذه النماذج قد تقدم معلومات مغلوطة بشكل مقنع، لذا يُعتبر وجود ردود تعبر عن عدم اليقين تحسناً مهماً، حيث أن الإقرار بعدم القدرة على تقديم المعلومات يعكس نوعاً من المسؤولية المهنية تجاه المستخدمين ويُعزز ثقتهم في النموذج.
بدلاً من تقديم معلومات غير صحيحة لمجرد الرد، يُظهر ChatGPT 5 التزامه بتقديم معلومات موثوقة، مما يساعد في تقليل شيوع المعلومات المضللة ويعطي المستخدمين انطباعاً بأن النموذج سيتحدث فقط عندما تكون المعلومات التي يقدمها مؤكدة، وفي هذه الحالة، تكون الفائدة أكبر تبرز التحسينات المستمرة.
منذ إصدار ChatGPT الأول في نوفمبر 2022، سعت OpenAI جاهدة لتقليل احتمالية الهلوسة، ومع ذلك، لا تزال هناك نسبة 10% من الاستجابات غير الدقيقة، وهو ما يعني أن هناك الكثير من العمل لتصحيح هذه القضايا، ويبدو أن الأبحاث لا تزال قائمة لتحقيق تحسينات أكبر في نماذج الذكاء الاصطناعي المستقبلية.
في سعيها للوصول إلى الذكاء الاصطناعي العام، الذي يعكس الذكاء والفهم البشري، تأمل الشركات في التغلب على عقبات الهلوسة، إذ يُعتبر ذلك خطوة رئيسية لتحقيق تطور أفضل في مجال الذكاء الاصطناعي، على الرغم من أن محاولات الوصول إلى الذكاء الاصطناعي العام لا تزال في مراحلها النظرية.
تدرك OpenAI العيوب المتعلقة بنماذج الهلوسة حتى مع إصدار ChatGPT 5، وقد عكفت الشركة على تشجيع المستخدمين على عدم اعتماده كمصدر رئيسي للمعلومات، حيث أن التقدم في هذا الجانب لا ينفي حاجة المستخدمين للتحقق من دقة المعلومات التي يحصلون عليها.
شدد نايك تورلي، رئيس ChatGPT، على ضرورة التحقق من المعلومات المُقدمة، فقد أشار إلى أنه لن يتمكن النموذج من تقديم موثوقية أعلى من الخبراء في العديد من المجالات حتى يثبت العكس، وهو ما يعكس التزام OpenAI بالحفاظ على معايير عالية في جودة المعلومات التي تقدمها وتقدير أهمية التدقيق.