Pentagon CTO: Anthropic'in Claude AI’ı savunma tedarik zincirini kirletebilir
Pentagon CTO’su Emil Michael, Anthropic’in Claude yapay zekâ modelinin savunma tedarik zincirini “kirletebileceğini” söyledi. ABD Savunma Bakanlığı şirketi tedarik zinciri riski olarak sınıflandırdı.
ABD Savunma Bakanlığı’nın (Pentagon) üst düzey teknoloji yetkililerinden Emil Michael, Anthropic tarafından geliştirilen Claude yapay zekâ modelinin savunma tedarik zinciri açısından risk oluşturabileceğini belirtti. CNBC’de yayımlanan Squawk Box programında konuşan Michael, şirketin kullanım kısıtlamalarının Pentagon’un operasyonel ihtiyaçlarıyla uyumsuz olduğunu ifade etti.
Pentagon, Mart 2026 başında Anthropic’i resmi olarak “tedarik zinciri riski” olarak sınıflandırdığını açıkladı. Bu karar, ABD savunma yüklenicilerinin ve federal kurumların şirketin Claude adlı yapay zekâ modelini kullanmasını fiilen engelleyebilecek bir adım olarak değerlendiriliyor. Yetkililer, söz konusu kararın cezalandırıcı bir adım olmadığını, ulusal güvenlik ve operasyonel esneklik açısından alınmış bir önlem olduğunu vurguladı.
Pentagon ile Anthropic arasındaki gerilimin temelinde, yapay zekânın askeri kullanımına yönelik etik sınırlar yer alıyor. Şirket, Claude modelinin ABD vatandaşlarına yönelik kitlesel gözetim veya tamamen otonom ölümcül silah sistemlerinde kullanılmasına karşı olduğunu belirtmişti. Savunma yetkilileri ise yapay zekânın gelecekte insansız hava araçları, su altı sistemleri ve diğer otonom platformlarda kritik rol oynayacağını savunuyor.
Bu gelişmelerin ardından Anthropic, Pentagon’un aldığı karara karşı hukuki mücadele başlattı. Şirket, tedarik zinciri riski olarak etiketlenmesinin hukuka aykırı olduğunu savunurken, kararın teknoloji sektörü ile ABD savunma ekosistemi arasındaki ilişkiler üzerinde önemli etkiler yaratabileceği değerlendiriliyor.
Yorumlar (0)
Henüz yorum yapılmamış. İlk yorumu siz yapın!

