Anthropic, Pentagon’un taleplerini reddetti, yapay zekâ teknolojisi henüz hazır değil dedi ve duruşunu her türlü baskıya rağmen korudu. Şimdi Anthropic binasının önü rengarenk tebeşirlerle destek mesajları ile dolu. Otonom silahlar ve milyonların izlendiği gözetim sistemleri ile ilgili bu duruş yapay zekânın insanlık için en temel güvenlik ilkelerinin neden şart olduğunu gösteren tarihî bir ders niteliğinde.
Ne Oldu?
Anthropic, Claude yapay zekâ modelini geliştiren ve yapay zekâ güvenliğini merkeze alan bir şirket. 2025 Temmuz’unda Pentagon (ABD Savunma Bakanlığı) ile 200 milyon dolar değerinde bir sözleşme imzaladı ve Claude, Pentagon’un gizli ağlarında kullanılan ilk yapay zekâ modeli oldu. Yani Anthropic askeri iş birliğine karşı değildi, aksine bu alanda öncüydü.
Ancak Anthropic’in sözleşmesinde iki kritik kırmızı çizgi vardı: Claude, ABD vatandaşlarının kitlesel gözetimi için kullanılamaz. Claude, tamamen otonom silah sistemlerinde (insanı devre dışı bırakan) kullanılamaz.
Pentagon ise bu güvencelerin kaldırılmasını, Claude’un “tüm yasal amaçlar” için sınırsız kullanılmasını talep etti. Savunma Bakanı Pete Hegseth, 24 Şubat 2026’da Anthropic CEO’su Dario Amodei’ye ültimatom verdi: 27 Şubat Cuma 17:01’e kadar kabul et, yoksa sonuçlarına katlan.
Tehditler ağırdı! Sözleşmenin iptali, Anthropic’in “tedarik zinciri riski” olarak etiketlenmesi ki bu normalde yabancı düşman güçlere uygulanan bir tanımlama ve 1950 tarihli Savunma Üretim Yasası’nın devreye sokulması.
Anthropic’in Cevabı: “Vicdanımız Buna İzin Vermez.”
Dario Amodei, 26 Şubat’ta yayınladığı açıklamada şirketinin askeri kullanım alanlarının yüzde 98-99’unu desteklediğini, sadece bu iki dar alanda taviz veremeyeceğini belirtti. Pentagon’un son teklifinin ise “uzlaşma olarak çerçevelenmiş yeni ifadelerin, güvencelerin istenildiğinde geçersiz kılınmasına izin veren hukuki jargonla eşleştirildiğini” açıkladı. Yani kağıt üstünde taviz gibi görünen metin, pratikte hiçbir koruma sağlamıyordu. 27 Şubat Cuma akşamı süre doldu. Trump, tüm federal kurumların Anthropic teknolojisini terk etmesini emretti. Hegseth, Anthropic’i “tedarik zinciri riski” ilan etti, üstelik bu, tarihte ilk kez bir Amerikan şirketine uygulanan bir tanımlamaydı.
Peki Bu İlkeler Neden Gerekli?
Bu kırmızı çizgilerin neden olması gerektiğini en iyi, olayların içinde olan Dario Amodei’nin kendi sözleriyle anlamak mümkün. CBS News’a verdiği röportajda her bir ilkeyi neden savunduğunu detaylıca anlatıyor.
1. Teknoloji Henüz Hazır Değil
Amodei açıkça söylüyor: “Otonom silahlar henüz güvenilir değil. Gözetim (oversight) konusunda bir konuşma yapmamız gerekiyor.”
Çünkü bugünün yapay zekâ modelleri halüsinasyon yapıyor. Bazen olmayan şeyleri uyduruyor, yanlış kod üretiyor, yanıltıcı tavsiyeler veriyor. Üstelik International AI Safety Report 2026 da bunu teyit ediyor: “Mevcut yapay zekâ sistemleri bazen bilgi uydurma, hatalı kod üretme ve yanıltıcı tavsiye verme gibi başarısızlıklar sergiliyor. Mevcut teknikler hata oranlarını azaltabiliyor ancak pek çok yüksek riskli ortamda gereken seviyeye indiremiyorlar.”
Bugün bir sohbet botunun verdiği yanlış bilgi sizi yanlış bir iş kararına yönlendirebilir. Aynı teknoloji bir silahı yönetiyorsa, yanlış hedefi vurabilir.
2. Yanlış Kişi Hedef Alınabilir, Siviller Ölebilir
Amodei’nin en çarpıcı ifadelerinden biri: “Yanlış kişi hedef alınabilir, bir sivil vurulabilir. Yapay zekâ teknolojisi, eğitimli bir askerin gösterdiği muhakemeyi gösteremez. Masum insanların öldürülmesine yol açabilecek bir ürün satmak istemiyoruz.”
Bu sözler soyut bir endişe değil. BM İnsan Hakları Konseyi’nden BM Silahların Azaltılması Ofisi’ne, Uluslararası Kızıl Haç Komitesi’nden (ICRC) bağımsız araştırmacılara kadar herkes aynı uyarıyı yapıyor. ICRC’nin BM Güvenlik Konseyi’ne sunduğu raporda şöyle deniliyor: “Yapay zekâ destekli otonom silahlar, insani hukuk kapsamında ayırt edici olmayan ve hukuka aykırı hale gelebilir.”
Bir parçası olmaktan onur duyduğum Center for AI and Digital Policy (CAIDP) ise REAIM 2026 Zirvesi’ne sunduğu bildiride, uluslararası insancıl hukuka uymayan askeri yapay zekâ sistemleri için net kırmızı çizgiler belirlenmesini talep ediyor. CAIDP’nin tanımladığı “uyumsuz askeri yapay zekâ sistemleri” arasında sahte korelasyonlar üreten, sivil ve askeri hedefler arasında ayrım yapamayan, istenmeyen risklere açık olan ve “savaş önyargısı” sergileyen sistemler yer alıyor.
3. İnsan Kontrolü Şart, Hesap Verebilirlik Şart
Amodei’nin vurguladığı bir diğer kritik nokta: “Hesap verebilirlik sorunu var. Bu kadar gücü tek bir yerde toplamak işe yaramaz. Düğmeye kimin bastığı konusunda bir hesap verebilirlik konuşması yapmamız gerekiyor.”
Bir insansız hava aracı yanlış bir hedefi vurduğunda kim sorumlu? Yazılımı geliştiren mühendis mi? Komutu veren general mi? Algoritmayı eğiten veri seti mi? Bu sorulara henüz net cevaplarımız yok. Ve cevabımız olmadan bu sistemleri sahaya sürmek, insan hayatıyla kumar oynamaktır.
CAIDP, bu nedenle ölümcül otonom silahlar (LAWS) üzerinde kapsamlı küresel düzenlemeler tamamlanana kadar derhal erteleme (moratoryum) uygulanmasını talep ediyor. Bu çağrı, BM Genel Sekreteri ile ICRC Başkanı’nın ortak çağrısıyla da örtüşüyor.
4. Kitlesel Gözetim: Hukuk Teknolojinin Gerisinde Kaldı
Amodei’nin gözetim konusundaki analizi çok çarpıcı: “Kitlesel iç gözetim, yasal olduğunda bile hükümet otoritesinin kötüye kullanımıdır. Hiç kimse ABD hükümeti tarafından gözetlenmek istemez.”
Yapay zekâ; konum bilgileri, web tarama geçmişi, sosyal bağlantılar gibi tek başına zararsız görünen verileri bir araya getirerek herhangi bir kişinin hayatının kapsamlı bir resmini otomatik olarak ve büyük ölçekte çıkarabilir. Bu yetenek o kadar yeni ki, mevcut yasalar bunu henüz düzenlemiyor. Amodei’nin dediği gibi: “Teknoloji, hukukun önüne geçti.”
Bütün web geçmişimiz, konum bilgilerimiz, sosyal medya etkileşimlerimiz yapay zekâ ile analiz edilip hayatımızın tümü bir ekrana yansıtılırsa ne hissederiz?
Diğer Şirketler Ne Yaptı?
Anthropic’in duruşu karşısında diğer şirketlerin tepkileri, yapay zekâ endüstrisinin iç yüzünü de gösterdi.
OpenAI, durumu fırsata dönüştürdü. Anthropic’in kara listeye alınmasından saatler sonra, OpenAI Pentagon ile gizli sistemler için bir anlaşma imzaladığını duyurdu. CEO Sam Altman, kendi anlaşmalarının da Anthropic’in ısrar ettiği aynı iki kısıtlama olan otonom silah ve gözetim kısıtlamalarını içerdiğini söyledi. Ancak bunları sözleşmeye farklı bir şekilde yerleştirdiklerini belirtti. Yani Anthropic’in “hayır” dediği şeyi, OpenAI farklı bir ambalajla “evet” diyerek kabul etti. Google ise daha önce yapay zekânın silah geliştirme ve gözetim için kullanılmayacağına dair taahhütlerini politikalarından kaldırmıştı bile. Elon Musk’ın xAI’ı ise Pentagon’un “tüm yasal amaçlar” standardını hiç sorgulamadan kabul etmişti.
Ama çalışanlar farklı düşünüyordu. 300’den fazla Google çalışanı ve 60’tan fazla OpenAI çalışanı, şirketlerinin liderlerini Anthropic’i desteklemeye ve Pentagon’un taleplerini reddetmeye çağıran bir açık mektup imzaladı. Mektupta şöyle denildi: “Pentagon, şirketleri birbirine karşı korkutarak bölmeye çalışıyor. Bu strateji ancak hiçbirimiz diğerlerinin nerede durduğunu bilmezse işe yarar.” Google DeepMind Baş Bilim İnsanı Jeff Dean da kitlesel gözetimin Dördüncü Anayasa Değişikliği’ni ihlal ettiğini ve ifade özgürlüğü üzerinde caydırıcı etkisi olduğunu belirten bir paylaşım yaptı.
Hikayenin En Acı Kısmı
OpenAI’ın Pentagon ile anlaşma imzaladığı günün hemen ertesi günü, 28 Şubat 2026 tarihinde İran’ın güneyindeki Minab şehrinde bir kız ilkokulu vuruldu.
Şajareh Tayyebeh Kız İlkokulu. 7 ile 12 yaş arası kız çocukları ders değiştiriyordu. Saat 10:45’ti. Okulda yaklaşık 170 öğrenci vardı. Füze okulu vurdu, duvarlar yıkıldı, çatı çöktü. UNESCO’nun açıklamasına göre yaklaşık 150 kişi hayatını kaybetti ve yaklaşık 100 kişi yaralandı. Hayatını kaybedenlerin büyük çoğunluğu küçük kız çocuklarıydı.
UNESCO, bu saldırının insancıl hukukun ağır bir ihlali olduğunu açıkladı ve öğrenmeye adanmış mekânlardaki öğrencilerin uluslararası insancıl hukuk kapsamında koruma altında olduğunu hatırlattı.
Bu trajedinin saldırıda yapay zekâ kullanılıp kullanılmadığı henüz tam olarak bilinmiyor. Bağımsız soruşturmalar devam ediyor. Ancak şu bir gerçek: Askeri yapıda yapay zekâ kullanımı hızla artıyor. Saldırı hedefleme, istihbarat analizi ve karar destek sistemleri yapay zekâyla çalışıyor. Ve tam da bu nedenle, Dario Amodei’nin söyledikleri gün geçtikçe daha da anlamlı hale geliyor:
“Yanlış kişi hedef alınabilir, bir sivil vurulabilir. Masum insanların öldürülmesine yol açabilecek bir ürün satmak istemiyoruz.”
Eğitim alanları bombalanıyor, çocuklar ölüyor. Bu gerçeklik karşısında “teknoloji henüz hazır değil, insan kontrolü şart, hesap verebilirlik mekanizmaları kurulmalı” diyen bir şirketin duruşu sadece ticari bir karar değil, insani bir sorumluluktur.
Daha Büyük Resim: Bu Sadece Amerika’nın Meselesi Değil
Burada önemli bir ayrıntıya dikkat çekmek gerekiyor. Anthropic’in duruşu çok değerli, ama gözetim yasağı sadece ABD vatandaşlarını kapsıyor. Yani dünyanın geri kalanındaki insanların kitlesel gözetimi bu kırmızı çizgilerin dışında kalıyor.
İnsan hakları evrensel değil mi? Bir şirketin etik duruşu, sadece kendi ülkesinin vatandaşlarını koruduğunda “etik” diyebilir miyiz?
Yapay zekâ etiğinin sadece ulusal değil küresel bir mesele ve Avrupa Birliği Yapay Zeka yasası da kitlesel gözetimi yasaklıyor. Biz de Orta Vadeli Plan ile belirttiğimiz üzere AB Yapay Zeka Yasası ile tam uyum sağlayan yasamızı bu yılın sonuna yaklaşırken devreye alacağız. Bu durum yasaların gerekliliğine ve biran önce devreye alınmasının önemine vurgu yapıyor. Bu sadece şirketlere bırakılacak bir karar değil, ne kadar prensipli olsalar da bazı prensipler sadece kendi ülke vatandaşlarını kapsıyor ve olması gerektiği gibi enrensel olamıyor.
Peki Biz Ne Yapabiliriz?
Bizim de çok değerli bir gücümüz var: seçim yapma gücü! Yapay zekâ mühendisleri de bu risklerin farkına vardı ve “durun” dedi. Şimdi sesimizi çıkarma ve seçim yapma vakti! Yoksa siz hala ChatGPT mi kullanıyorsunuz?
Yapay zekâ şirketleri bizim için ürün ve hizmet geliştiriyor. Biz kullanıcılar ve müşteriler olarak; bir şirketin değerlerini, duruşunu, ilkelerini bilerek tercih yapma gücünü elimizde tutuyoruz. Unutmayalım ancak biz varsak varlar, biz yoksak yoklar. Kullanıcısı veya müşterisi olmayan bir yapay zeka şirketine yatırımcılar da yatırım yapmayacaktır. Biz de tıpkı sağlıklı gıda seçmek, çevre dostu marka tercih etmek gibi, yapay zekâ araçlarımızı da değerlerine göre seçebiliriz.
Doğruları söyleyenin, doğru duruşu olanın yanında olmak bir seçimdir. Bu bir yapay zekâ okuryazarlığı meselesi. Hangi şirketin ne yaptığını, neyi savunduğunu, neyi göz ardı ettiğini bilmek, bu çağda bir zorunluluk.
Geleceği birlikte inşa edelim. Sesimiz değerli, seçimlerimiz önemli. İlkeli duranların sesini yükseltmek ve gerektiğinde onların eksikliklerini de işaret ederek her zaman en iyisini talep etmek bizim elimizde.
Aysu Dericioğlu Egemen
Kaynaklar
Anthropic: Dario Amodei, “Statement on our discussions with the Department of War,” anthropic.com, 26 Şubat 2026.
CBS News: Dario Amodei röportajı, “Disagreeing with the government is the most American thing in the world,” 28 Şubat 2026.
NPR: “OpenAI announces Pentagon deal after Trump bans Anthropic,” 27 Şubat 2026.
Fortune: “OpenAI sweeps in to snag Pentagon contract after Anthropic labeled supply chain risk,” 28 Şubat 2026.
TechCrunch: “Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter,” 27 Şubat 2026.
UNESCO / UN News: “Deadly bombing of Iran primary school a grave violation of humanitarian law,” 1 Mart 2026.
Al Jazeera: “Death toll in Israeli strike on southern Iran school rises to 165,” 28 Şubat 2026.
International AI Safety Report 2026: internationalaisafetyreport.org, Yoshua Bengio ve ekibi, Şubat 2026.
ICRC: “We cannot let AI be deployed on the battlefield without oversight and regulation,” BM Güvenlik Konseyi sunumu, 2025.
CAIDP: REAIM Summit 2026 Bildirisi, “Comment to the Ministry for Foreign Affairs regarding Responsible AI in the Military Domain,” 1 Şubat 2026.
Lawfare: “What the Defense Production Act Can and Can’t Do to Anthropic,” Şubat 2026.
CNBC: “Anthropic faces lose-lose scenario in Pentagon conflict,” 27 Şubat 2026.