Yapay zekâ teknolojilerinin hızla geliştiği bir dönemde, bu sistemlerin kriz anlarında nasıl karar vereceği bilim dünyasında tartışma konusu olmaya devam ediyor. Henüz hakem onayından geçmemiş yeni bir araştırmada, gelişmiş büyük dil modelleri simüle edilmiş bir nükleer savaş ortamında test edildi. Çalışmada elde edilen bulgular, algoritmaların nükleer silah kullanımını insanlığın en büyük kırmızı çizgilerinden biri olarak değil, stratejik bir seçenek olarak değerlendirebildiğini ortaya koydu. Araştırmacılar, makinelerin etik kaygı ya da insani korku taşımadan yalnızca veri ve olasılık hesapları üzerinden karar vermesinin ciddi riskler barındırdığına dikkat çekti.

Birleşmiş Milletler Genel Sekreteri António Guterres’in daha önce nükleer silah kullanım kararlarının mutlaka insanlar tarafından verilmesi gerektiğine yönelik çağrısı, bu tür çalışmaların ardından yeniden gündeme geldi. Uzmanlar, otomatik sistemlerin nihai karar merci haline gelmesinin küresel güvenlik açısından ciddi sonuçlar doğurabileceğini belirtiyor.

Simülasyonda Nükleer Eşik Kolay Aşıldı

King's College London’dan strateji profesörü Kenneth Payne tarafından yürütülen araştırmada, farklı yapay zekâ modelleri sanal bir savaş senaryosunda karşı karşıya getirildi. Senaryolarda toprak anlaşmazlıkları, kritik maden rekabeti ve rejim güvenliği gibi başlıklar yer aldı. Modellerin önüne diplomatik çözümden askeri müdahaleye kadar birçok seçenek sunuldu.

Araştırma sonuçlarına göre simülasyonların büyük bölümünde modeller nükleer silah kullanımını tercih etti. Özellikle taktiksel nükleer silahların, konvansiyonel savaşın bir uzantısı gibi değerlendirildiği görüldü. Bilim insanları, algoritmaların geri dönüşü olmayan bir eşiği aştıklarının farkında olmadan karar üretebildiğini ifade etti.

Neden Bu Kadar Riskli Kararlar Alıyorlar

Uzmanlara göre yapay zekâ sistemlerinin bu yönde karar almasının temel nedenlerinden biri, insani korku ve etik sorumluluk duygusundan yoksun olmaları. İnsanlık tarihinde derin izler bırakan nükleer krizler, makineler için yalnızca analiz edilen veri setleri anlamına geliyor.

Araştırmacılar ayrıca eğitim verilerinin etkisine de dikkat çekti. Soğuk Savaş dönemine ait askeri doktrinler ve stratejik metinler, nükleer silahları belirli koşullarda kullanılabilir araçlar olarak ele alıyor. Bu yaklaşımın algoritmaların karar mekanizmasını etkileyebileceği belirtiliyor.

Bilim insanları, mevcut haliyle yapay zekâ modellerinin nükleer çatışma gibi kritik alanlarda karar verici ya da danışman olarak kullanılmasının ciddi güvenlik riskleri doğurabileceğini vurguluyor.