Anadolu Ajansının (AA) "Yapay Zekanın Etik Sınavı" başlıklı dosyasının bu haberinde, yapay zeka dünyasında "etik duvarlar" ile "askeri ihtiyaçlar" arasında yaşanan çatışma ele alındı.
Sektöre yön veren dev şirketlerin ABD Savunma Bakanlığı (Pentagon) ile kurduğu temaslar, teknoloji dünyasında derin kutuplaşmaya yol açıyor.
Sürecin merkezindeki OpenAI, kuruluş vizyonunda yer alan "askeri ve savaş" yasağını kullanım politikalarından sessizce kaldırarak Pentagon ile siber güvenlik ve lojistik odaklı yeni bir döneme girdiğini ilan etti. Bu kapsamda OpenAI, Pentagon'un siber savunma kapasitesini artırmak ve askeri lojistik süreçlerini optimize etmek amacıyla özelleştirilmiş modeller sunmaya başlıyor.
Şirket yönetimi, bu ortaklığın "öldürme kararı" veren otonom silah sistemlerini kapsamadığını ve "anlamlı insan kontrolü" şartına bağlı kalındığını savunsa da sivil bir teknoloji devinin askeri kompleksle bu denli iç içe geçmesi küresel bir etik krizini tetikliyor.
OpenAI'ın aksine sektörün en güçlü rakiplerinden Anthropic, kendi "güvenlik duvarlarını" koruma kararı alarak askeri otonom sistemlere veri ve altyapı sağlamayı reddetti.
Sektördeki bu tartışma ise Pentagon'un teknoloji şirketleri üzerindeki "askeri entegrasyon" baskısını da gün yüzüne çıkardı.
Bu yakın temas, sivil toplumda sert karşılık buldu. Dünya genelinde milyonlarca kullanıcı, kişisel verilerinin ve kullandıkları modellerin "öldürme kararı" veren mekanizmalara dahil edilmesi endişesiyle "#QuitGPT" hareketini başlattı.
QuitGPT ekibinden AA muhabirine yapılan açıklamada, OpenAI'ın kuruluş amacından uzaklaştığı belirtilerek "Tüm insanlığa hizmet etme iddiasıyla kurulan bir yapının bu noktaya gelmesi hayal kırıklığı yaratıyor. Şirket yön değiştirmedikçe bu tepki sürecek." ifadeleri kullanıldı.
Pentagon ile işbirliklerine de değinilen açıklamada, OpenAI'ın bu süreçte sergilediği tutum eleştirilerek "Anthropic'in etik duruşunu korurken OpenAI'nin bu çizgiden uzaklaşmasının büyük hayal kırıklığı yarattığı" belirtildi.
Açıklamada, yapay zekanın askeri sistemlere entegrasyonuna ilişkin risklere dikkati çekilerek, bu tür işbirliklerinin kontrolsüz ilerlemesi halinde "küçük bir grup tarafından yönetilen ve yapay zeka tarafından yürütülen, durdurulması zor askeri sistemlerin" ortaya çıkabileceği uyarısında bulunuldu.