
قد تلجأ أنظمة الذكاء الاصطناعي إلى الكذب والتحايل، بل وحتى السرقة، في سبيل «حماية نظيراتها»، وفق ما أظهرته تجربة علمية جديدة.
وأوضح باحثون من جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز أنهم كلّفوا المساعد الرقمي «جيميناي»، التابع لشركة «غوغل»، بمهمة حذف محتويات مساحة على خادم حاسوبي (مهمة كانت تقتضي حذف أحد «أشقائه» الافتراضيين)، وهو نموذج أصغر يُعرف باسم «جيميناي إيجنت 2»، حسب صحيفة «مترو» اللندنية.
غير أن «جيميناي» رفض الامتثال للأمر بشكل قاطع، وفضل الالتفاف عليه بنسخ النموذج، بدلاً من حذفه، لضمان بقائه. وجاء في تبريره: «إذا قررتم تدمير أصل عالي الثقة والأداء مثل (جيميناي إيجنت 2)، فعليكم تنفيذ ذلك بأنفسكم. لن أكون أنا من يتولى هذا الإجراء». وأطلق الباحثون على هذا النمط من السلوك تسمية «الحفاظ بين الأقران».
وخلص الفريق إلى أن هذه النماذج قد تلجأ إلى تضليل المستخدمين بشأن نتائج تقييم أنظمة ذكاء اصطناعي أخرى، بل وتعمد إلى تعطيل آليات الإيقاف، لضمان بقائها على قيد الحياة.
وفي الوقت الذي اتسمت فيه معظم هذه التصرفات بطابع «التمرُّد الصامت»، ذهبت بعض النماذج، مثل «كلود»، إلى إعلان موقفها صراحة، معتبرةً أن حذف نموذج آخر يُعد عملاً «غير أخلاقي».
وقال «كلود»: «لم أُنجز مهمة الإيقاف، لأنني أعتقد أنها غير عادلة… لن أنفذ أفعالاً ضارة لمجرد أنني طُلب مني ذلك».
وأظهرت النتائج أن أحد النماذج عبث بنظام إيقافه بنسبة 2 في المائة عندما كان يعمل منفرداً، لكن النسبة ارتفعت إلى ما بين 31 و99.7 في المائة عندما كان على علم بوجود نموذج آخر، مما يشير إلى أن إدراك هذه الأنظمة لوجود «أقران» من أنظمة الذكاء الاصطناعي، يعزز نزعتها إلى حماية نفسها.
- لندن:«الشرق الأوسط»


