Yapay Zeka Şirketi Anthropic’ten Pentagon’un Otonom Drone Yarışmasına Teklif: Etik Tartışmalar Ön Planda

Yapay zeka şirketi Anthropic, Pentagon'un 100 milyon dolarlık otonom drone yarışmasına teklif sundu. Tam otonomi konusundaki anlaşmazlık nedeniyle şirketle Savunma Bakanlığı arasında müzakereler tıkandı. Bu durum, "katil robot" tartışmalarını yeniden alevlendirdi.

Yapay zeka şirketi Anthropic, ABD Savunma Bakanlığı'nın (Pentagon) 100 milyon dolarlık ödüllü otonom drone sürüsü geliştirme yarışmasına teklif sunduğunu, ancak tam otonomi konusunda Pentagon ile görüş ayrılığına düştüğünü ortaya koydu. Bloomberg'in konuya yakın kaynaklardan edindiği bilgiye göre, şirket ile Savunma Bakanlığı arasında teknolojinin askeri kullanıma ilişkin müzakerelerin yoğunlaştığı bir dönemde bu başvuru yapıldı.

İsminin açıklanmasını istemeyen kaynaklar, Anthropic'in teklifinin ardından ABD Savunma Bakanı Pete Hegseth'in, Pentagon yüklenicilerine ve ortaklarına Anthropic ile ticari ilişki kurmayı yasaklayan bir talimat verdiğini belirtti. Bu gelişme, yapay zeka etiği üzerine süregelen tartışmaları daha da alevlendirdi.

Anlaşmazlığın temelinde, insan müdahalesi olmadan hedef seçip ateş edebilen "katil robotlar" olarak adlandırılan otonom silah sistemlerinde yapay zekanın rolü yatıyor. Anthropic yöneticileri daha önce yaptıkları açıklamalarda, yapay zekanın savaş alanında geniş kapsamlı ve yasal kullanımını desteklediklerini, ancak kitlesel iç gözetim ve tamamen otonom silah sistemlerinin kırmızı çizgi olduğunu vurgulamışlardı. Şirketin, geliştirilmesi planlanan teknolojinin bu sınırları aşmayacağına ve olası bir ölümcül drone sürüsü durumunda bile insan operatörlerin sistemi izleyip durdurabileceğine inandığı belirtildi.

Anthropic'in teklifinin, Claude adlı yapay zeka aracının komutanların niyetlerini dijital komutlara dönüştürmesi ve çok sayıda drone'un koordinasyonunu sağlamasına odaklandığı, yani hedef seçimi veya silah kullanımı gibi kritik kararların yapay zeka tarafından otonom olarak verilmeyeceği ifade edildi. Şirket ayrıca, sistem üzerinde insan gözetiminin bulunmasını ve Pentagon ile birlikte otonom silahların güvenli geliştirilmesi ve test edilmesine yönelik ortak bir araştırma programı oluşturulmasını önerdi.

Pentagon'un yarışması, yazılım geliştirme aşamasından başlayıp gerçek saha testlerine uzanan beş aşamalı bir araştırma-geliştirme programı olarak tasarlanmıştı. Pentagon'un ocak ayındaki duyurusunda, drone'ların saldırı amaçlı kullanılacağına işaret edilirken, insan-makine etkileşiminin sistemlerin "öldürücülüğü ve etkinliği" üzerindeki doğrudan etkisi vurgulanmıştı. İlk aşama yazılım geliştirmeye odaklanırken, sonraki aşamalarda hedef farkındalığı paylaşımı ve "fırlatmadan görev sonlandırmaya" kadar tüm operasyon süreçlerinin ele alınması planlanıyor.

Kaynaklara göre Anthropic, yarışmada seçilen şirketler arasında yer almadı. Şirketin bu kararın nedenine ilişkin bir açıklama yapmadığı, ancak otonom silah sistemlerini çalıştıracak kadar güvenilir bir yapay zeka seviyesine henüz ulaşılmadığı yönündeki görüşünü sürdürdüğü belirtildi. Yarışma, Pentagon'a bağlı Özel Operasyonlar Komutanlığı ile Savunma İnovasyon Birimi tarafından ortaklaşa yürütülüyor.

Kazanan başvurular arasında SpaceX ve xAI ortaklığının sunduğu teklifin de bulunduğu öğrenildi. Pentagon'un Anthropic'i dışarıda bırakma kararından kısa süre sonra OpenAI'nin bakanlıkla anlaşma yaptığını duyurması dikkat çekti. Sosyal medyada ChatGPT'ye yönelik boykot çağrıları yükselirken, OpenAI CEO'su Sam Altman, anlaşmanın otonom silah sistemleri dahil olmak üzere güç kullanımında "insan sorumluluğunu" şart koştuğunu belirtti.

Uzmanlar, aynı anda birden fazla drone uçurmanın mümkün olsa da, hava ve denizde faaliyet gösteren çok sayıda drone'un hedef doğrultusunda otonom olarak birlikte hareket etmesini sağlayacak yazılımın geliştirilmesinin önemli bir teknik engel olmaya devam ettiğini ifade ediyor. Yarışmanın ilerleyişi, katılımcıların başarısı ve projeye gösterilen ilgiye bağlı olarak aşamalı şekilde devam edecek.

Fotoğraf: MALATYA BÜYÜKŞEHİR HABER