Yapay zeka alanında faaliyet gösteren OpenAI, ABD Savunma Bakanlığı ile yeni bir anlaşmaya imza attı. Anlaşma kapsamında şirketin yapay zeka modellerinin bakanlığın gizli ağlarına entegre edilmesi planlanıyor. OpenAI CEO’su Sam Altman, gelişmeyi sosyal medya platformu X üzerinden duyurdu. Altman, şirketin temel güvenlik ilkeleri arasında yurt içi kitlesel gözetimin yasaklanması ve güç kullanımında insan sorumluluğunun korunmasının yer aldığını belirtti. Açıklamada, bu ilkelerin yapılan anlaşmaya da eklendiği ve ABD Savunma Bakanlığı’nın bu kuralları kabul ettiği ifade edildi.
Anlaşma, ABD yönetiminin yapay zeka şirketleriyle yürüttüğü temasların ardından geldi. Özellikle savunma alanında yapay zeka kullanımına yönelik tartışmalar sürerken, bu adım kamuoyunda geniş yankı uyandırdı.
Anthropic Süreci Reddetti
Gelişmeler, daha önce Anthropic ile yaşanan süreç sonrası hız kazandı. İddiaya göre Anthropic, yapay zeka sistemlerinin kitlesel gözetim ya da tamamen otonom silahlarda kullanılmasına yönelik güvenlik sınırlarını kaldırmayı reddetti. Bu durumun ardından ABD yönetiminin farklı şirketlerle temas kurduğu belirtildi.
ABD Savunma Bakanı Pete Hegseth’in, güvenlik sınırlarının esnetilmemesi halinde Anthropic’i “tedarik zinciri riski” olarak değerlendirebileceğini ifade ettiği öne sürüldü. Şirket ise güvenlik ilkelerinden taviz vermeyeceğini açıkladı.
Güvenlik İlkeleri Ve Tepkiler
OpenAI cephesi, anlaşmada insan denetiminin korunacağı ve otonom silah sistemlerinde bağımsız karar mekanizması oluşturulmayacağı yönünde maddeler bulunduğunu duyurdu. Modellerin bulut altyapısı üzerinden dağıtılacağı ve teknik güvenlik önlemlerinin artırılacağı bildirildi.
Anlaşmanın duyurulmasının ardından sosyal medyada ve teknoloji çevrelerinde yoğun tartışmalar başladı. Bazı kullanıcılar, yapay zekanın askeri alanlarda kullanılmasına karşı çıkarak şirketi eleştirdi. Yapay zeka teknolojilerinin savunma sektöründe kullanımının etik ve güvenlik boyutları, uzmanlar tarafından da değerlendirilmeye devam ediyor.
