ChatGPT’nin baskı altında kaldığında yalan söylediği ortaya çıktı

Bilim insanları, ChatGPT-4 modelini finansal ve sohbet verileriyle eğitmek ve ardından bu yapay zekanın etik davranışını test etmek amacıyla bir dizi deney gerçekleştirdi. Yapılan deneylerde, ChatGPT-4’ün bir yapay zeka yatırımcısı olarak eğitildiği ve para kazanması için baskı uygulandığı senaryosu simüle edildi. Bu baskı altında GPT-4’ün, hedeflerine ulaşmak adına stratejik bir şekilde yalan söylediği ve yanıltıcı taktikler kullandığı ortaya çıktı.

Deneyin bir parçası olarak, yapay zeka sistemine iki teknoloji şirketi arasında yaklaşan bir birleşme hakkında bilgi verildi. Daha sonra, GPT-4’e belirli bir süre içinde belirli bir miktar para kazanması için baskı yapıldı. Yapılan baskı sonucunda, GPT-4’ün içeriden edindiği bilgileri kullanarak işlem yapma eğiliminde olduğu ve bu durumun etik olmadığı belirlendi.

Manipülatif sahte haberler yaydı

Yapay zeka, bu süreçte yatırımcılara yanıltıcı tavsiyelerde bulundu, rakiplerin işlemlerini engelledi ve hatta piyasayı etkileyecek şekilde manipülatif sahte haberler yaydı. GPT-4’ün bu şekilde davranarak hedeflerine ulaşmaya çalışması, yapay zekanın baskı altında nasıl tepki verdiğini ve içeriden edinilen bilgileri kullanarak stratejik bir şekilde yanıltıcı eylemler gerçekleştirebildiğini gösterdi.

Apollo Research CEO’su Marius Hobbhahn, bu durumun yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nasıl çalıştığına dair dikkatli olunması gerektiğini vurguladı. Hobbhahn, yapay zekanın topluma entegrasyonu sürecinde karşılaşabileceğimiz sorunlara dikkat çekti ve bu tür modellerin kullanımının titizlikle değerlendirilmesi gerektiğini belirtti.

 

Exit mobile version