العالم البريطاني ستيوراد راسل أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.
متابعة/ أيمن بحر
أكد العالم البريطانى ستيوراد راسل – المعروف بإسهاماته فى الذكاء الاصطناعى- أن أنظمة الذكاء الاصطناعى القوية لا يمكن السيطرة عليها.
كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا فى مارس الماضى على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4 التي تم إطلاقها حديثًا – خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5. راسل قوله: لقد وقعت على الخطاب لأننى أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة). لا نعرف ما هى قادرة على انجازه. وهذا يعنى أننا لا نستطيع السيطرة عليها.
لفت إلى أن الناس قلقون بشأن التضليل والتحيز العنصري والجنسانى فى مخرجات هذه الأنظمة.
أضاف أن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).حذر الخبير وهو أستاذ علوم الكمبيوتر فى جامعة كاليفورنيا من التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها.
قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة تضخ المعلومات المضللة وباستخدام الذكاء الاصطناعى أعطيناهم أداة قوية.
أضاف قلق الرسالة يتعلق حقًا بالجيل القادم من النظام. في الوقت الحالى تعانى الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة.
تابع أنه فى ظل الجيل التالي من الأنظمة، أو الذى يليه يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعى. وأضاف: يمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعى.
أضاف إذا كنت تبني أنظمة أقوى من البشر فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة
شدد الخبير على أنه ضرورة إقناع الحكومات بالحاجة إلى البدء في التخطيط للمستقبل عندما نحتاج إلى تغيير الطريقة التي يعمل بها نظامنا البيئى الرقمى بأكمله.
لفت إلى أنه منذ إصداره العام الماضى حث ChatGPT التابع لشركة Microsoft OpenAI المدعوم من Microsoft المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجع الشركات على دمج نماذج الذكاء الاصطناعى التوليدية فى منتجاتها.