وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.
وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري.
وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه".
وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين.
وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه".
وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة".
وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3".