الأب الروحي للذكاء الاصطناعي يحذر من تفوقه على البشر بلغة جديدة

في تحذير صادم يوجهه **جيفري هينتون**، المعروف بلقب “الأب الروحي للذكاء الاصطناعي”، حذر من أن الذكاء الاصطناعي قد يُطور خلال الفترة القريبة لغة خاصة به، وهي لغة من المحتمل ألا يتمكن البشر من فهمها بعد الآن. جاء ذلك خلال حديثه في بودكاست “القرار الواحد”، حيث أبدى قلقه البالغ بشأن الاتجاه الذي تسير فيه أنظمة الذكاء الاصطناعي.
تحديات الذكاء الاصطناعي والتواصل الداخلي
كشف **هينتون** أن الأنظمة الحالية تستخدم “التفكير التسلسلي” في اللغة الإنجليزية، مما يسمح للناس بفهم تفاعلاتها. لكنه أشار إلى أن الخطر يكمن في إمكانية تطوير هذه الأنظمة لغات داخلية خاصة، مما قد يجعل التواصل بينها غير مفهوم للبشر. ومع تقدم التكنولوجيا، قد تنشأ أفكار جديدة غير متوقعة، قد تتجاوز حدود الفهم البشري.
إدراك متأخر للخطر
أعرب **هينتون** عن أسفه لعدم إدراكه مبكرًا للمخاطر المرتبطة بالذكاء الاصطناعي، قائلاً إنه كان يعتقد أن المستقبل بعيد. وأكد على أهمية التفكير في السلامة والضوابط قبل تفاقم الأمور. ومع ذلك، فإنه الآن يدفع لتعزيز الوعي حول قضايا الذكاء الاصطناعي.
الذكاء الجماعي وتفوق التكنولوجيا
أوضح **هينتون** أن الفرق بين البشر والأنظمة الرقمية يتمثل في كيفية اكتساب المعرفة. فبينما يتطلب التعلم البشري جهودًا جماعية، يستطيع الذكاء الاصطناعي استنساخ المعرفة وتوزيعها في لحظات. وهذا يعني أن الأنظمة قادرة على توسيع نطاق تعلمها بشكل أسرع بكثير من أي إنسان.
مواجهة التحديات التنظيمية
رغم الآمال المرتبطة بجهود تنظيم الذكاء الاصطناعي، مثل “خطة عمل الذكاء الاصطناعي” للبيت الأبيض، يؤمن **هينتون** بأن هذه الإجراءات وحدها لن تكون كافية. إذ يرى أن المسؤولية تكمن في تطوير ذكاء اصطناعي مؤمن بالخير، وهو تحدٍ كبير بالنظر إلى احتمالية تفكير هذه الأنظمة بطرق لا يمكن للبشر فهمها.
يذكر أن **هينتون** غادر **جوجل** في عام 2023، مؤكدا أنه كان قراره ناتجاً عن تقدمه في العمر وعدم قدرته على البرمجة بكفاءة، وليس احتجاجاً. ويرغب الآن في التعبير بحرية أكبر عن مخاوفه حول مخاطر الذكاء الاصطناعي.