Yapay Zekâ

Yapay Zekânın Militarizasyonu: Anthropic Krizi Sonrası Pentagon OpenAI ile Anlaştı

Yapay zekâ şirketlerinin gücü artık yalnızca kod yazma kabiliyetleriyle sınırlı değil. Günlük hayatta hayatımızı kolaylaştıran yapay zekâ asistanları, bugün devletlerin doğrudan savaş alanında kullandığı stratejik araçlara dönüşmüş durumda. Pentagon ile OpenAI arasında kurulan yeni iş birliği, teknoloji elitleri ile devlet aygıtının iç içe geçtiği yeni nesil askerî-sınai kompleksin nasıl şekillendiğini gözler önüne seriyor.

Yapay Zekânın Militarizasyonu: Anthropic Krizi Sonrası Pentagon OpenAI ile Anlaştı
19 Şubat 2026'da Yeni Delhi'de düzenlenen INDIAai adlı yapay zekâ zirvesindeki selamlama sırasında yan yana gelen OpenAI CEO'su Sam Altman (solda) ile Anthropic CEO'su Dario Amodei'nin (sağda) el ele tutuşmaması dikkat çekmişti. | Fotoğraf: INDIAai. Kolaj : Perspektif.

Geçtiğimiz günlerde teknoloji dünyası, devlet aygıtı ile Silikon Vadisi arasındaki güç dengelerini yeniden tanımlayan tarihî bir kırılmaya sahne oldu. 27 Şubat 2026 Cuma günü, ABD Başkanı Donald Trump tüm federal kurumların Anthropic şirketine ait yapay zekâ sistemlerini kullanmasını yasakladı. Hemen ardından Savunma Bakanı [bakanlığın adının değiştirilmesi nedeniyle artık Savaş Bakanı] Pete Hegseth, Claude adlı LLM modelinin yaratıcısı Anthropic’in “tedarik zinciri riski” oluşturduğu söyledi. Bu tanımlama normalde Huawei (Çin) veya Kaspersky (Rusya) gibi ABD’nin jeopolitik rakiplerine ait şirketler için kullanılırdı fakat bu kez ilk defa bir Amerikan teknoloji devine karşı kullanılmış oldu.

Peki ama “güvenlik öncelikli” yaklaşımıyla bilinen Anthropic, nasıl oldu da bir anda ulusal güvenlik tehdidine dönüştü? Olayın arka planında, Pentagon’un yapay zekâyı kısıtlamasız bir şekilde kullanma arzusu ve başlangıçta sivil amaçlarla geliştirilen bir teknolojinin hızla askerîleşme süreci yatıyor.

Bir Yapay Zekâ Modeli Savaş Alanında Ne İşe Yarar?

Anthropic ve Pentagon arasındaki bu krizi anlayabilmek için öncelikle ilişkinin ne kadar derinleştiğine bakmak gerekiyor. Krizden önce Anthropic, ABD Savunma Bakanlığının en güvendiği yapay zekâ partneri konumundaydı. Şirket, Kasım 2024’te savunma devlerinden Palantir ve Amazon Web Services (AWS) ile üçlü bir ittifak kurarak Claude modellerini ABD istihbarat ve savunma kurumlarının kullanımına açmıştı. Temmuz 2025’te ise Pentagon ile “Claude Gov” modellerinin geliştirilmesi için 200 milyon dolarlık devasa bir sözleşme imzalanmıştı.

Sivil hayatta e-posta taslakları hazırlattığımız Claude gibi yapay zekâlar, savaş alanlarında nasıl bir işlev üstleniyor? askerî terminolojiyle ifade etmek gerekirse, yapay zekânın asıl amacı “ölüm zincirini”, yani hedefin tespit edilip vurulmasına kadar geçen süreyi kısaltmak. Palantir’in yapay zekâ platformu üzerinden Savunma Bakanlığı sistemlerine entegre edilen Claude; karmaşık istihbarat verilerini saniyeler içinde analiz etmek, savaş alanı simülasyonları yürütmek ve doğrudan vurulacak hedefleri belirlemek için kullanılıyordu.

Modelin operasyonel kullanımı sadece teoride de kalmadı. Ocak 2026’da Venezuela Devlet Başkanı Nicolás Maduro’nun yakalandığı operasyonda Claude kullanılmıştı. Ayrıca, Trump’ın Anthropic’i yasakladığı günün gecesi ABD ve İsrail’in İran’a düzenlediği ortak hava saldırılarında, Orta Doğu’daki ABD Merkez Komutanlığı (CENTCOM), hedefleri belirlemek ve gerçek zamanlı saha analizi yapmak için Claude’u kullanmıştı. Sistem öylesine kritik bir sinir ağına dönüşmüştü ki, Pentagon operasyonun ortasında fişi çekememiş ve zorunlu bir “aşamalı terk etme” süresi tanımak zorunda kalmıştı.

Pentagon, Anthropic Şirketinden Ne Talep Etti?

Kriz, Claude’un bu kadar hayati bir araca dönüşmesine rağmen Anthropic’in etik sınırlarında ısrarcı olmasıyla patlak verdi. Şirket, yapay zekâsının “kitlesel iç gözetim” ve “tam otonom silah sistemleri” için kullanılamayacağı şartını koştu. Savunma Bakanlığı ise limitsiz kullanım dayatıp Anthropic CEO’su Dario Amodei de geri adım atmayınca; hükümet, Anthropic ile olan 200 milyon dolarlık sözleşmeyi tek taraflı iptal edip şirketi kara listeye aldı.

Bu kararın hemen birkaç saat sonrasında OpenAI CEO’su Sam Altman, Pentagon ile el sıkıştıklarını ve ChatGPT modellerini gizli askerî ağlarda devreye sokmak üzere anlaştığını duyurdu. Aslında OpenAI’ın bu role soyunacağının sinyalleri epeydir veriliyordu. Şirket, 2024’ün başlarında kullanım koşullarını güncelleyerek ” askerî ve savaş amaçlı kullanım yasağını” kaldırmıştı. Ardından yönetim kuruluna eski NSA (Ulusal Güvenlik Ajansı) direktörü Paul Nakasone’nin atanması, şirketin sivil bir teknoloji girişiminden ziyade ulusal güvenlik aygıtının organik bir parçasına dönüştüğünün resmi ilanı olmuştu. Böylece Soğuk Savaş’tan bildiğimiz o klasik “askerî-sınai kompleks” kabuk değiştirdi. Artık Lockheed Martin veya Boeing gibi geleneksel silah üreticilerinin yanı sıra Silikon Vadisi’nde devasa veri merkezleri kuran ve dil modelleri oluşturan teknoloji şirketleri de savunma sanayisinin baş köşesine yerleşti.

Pentagon Neden ChatGPT’yi Tercih Etti?

Bu anlaşmanın en ironik tarafı, Altman’ın bizzat kendi sözleşmelerinde de Anthropic’in talep ettiği aynı “kırmızı çizgilerin,” yani otonom silahlar ve gözetim yasağı bulunduğunu iddia etmesiydi. Pentagon’un aynı şartları öne süren Anthropic’i ezip geçerken, OpenAI’a nasıl yeşil ışık yaktığı büyük bir soru işareti yarattı. Bu durum, OpenAI’ın “güvenlik” söylemlerini esnetebilme potansiyelinin ve devlet-şirket ilişkilerindeki lobicilik gücünün bir göstergesi olarak görülebilir. Geleneksel savunma sanayii devlerinin hiyerarşik yapısı yerini yavaş yavaş Silikon Vadisi’nin ‘broligarklarına‘ (teknoloji sektöründen çıkan yeni nesil milyarder güç elitleri) bırakırken; Sam Altman veya Elon Musk gibi figürlerin Pentagon koridorlarındaki nüfuzunun, seçilmiş hükümet yetkililerinin bile kararlarını esnetebilecek bir seviyeye ulaştığı görülüyor.

Fakat Sam Altman’ın bu hamlesi, beklemediği bir tüketici tepkisiyle karşılaştı. Anlaşmanın duyurulmasının ardından, ABD’de ChatGPT’yi telefonlarından silenlerin oranı bir gün içinde yüzde 295 artarken, kullanıcılar protesto amacıyla Anthropic’in uygulaması Claude’a yöneldi ve Claude, App Store’da zirveye oturdu. Gelen yoğun toplumsal baskı, kurum içindeki rahatsızlıklar ve yüzlerce Google ile OpenAI çalışanının imzaladığı protesto metinleri üzerine Altman geri adım atmak zorunda kaldı. Nihayetinde sözleşme revize edilerek, Ulusal Güvenlik Ajansı (NSA) gibi istihbarat kurumlarının OpenAI modellerini kullanmasını sıkı şartlara bağlayan yeni maddeler eklendi.

Peki Biz Sıradan Kullanıcılar Bu Denklemin Neresindeyiz?

Tüm bu jeopolitik ve makroekonomik hamleler, ekranının başında tez yazan, kod yazdıran veya dil öğrenmek için ChatGPT kullanan sıradan bir vatandaş için ne anlama geliyor? Tartışmanın en kritik ve en az konuşulan kısmı tam olarak burası.

Birincisi, veri gizliliği ve güvenliği. OpenAI her ne kadar askerî ve kurumsal müşteriler ile sivil kullanıcıların verilerini ayrı tuttuğunu, sivillere ait sohbetlerin askerî modelleri eğitmek için kullanılmadığını iddia etse de işin mimari boyutu bu kadar net sınırlarla çizilemiyor. Gündelik kullanıcılardan toplanan milyarlarca veri, yapay zekâ modelinin temel akıl yürütme becerisini geliştiriyor. Siz ChatGPT’ye daha iyi bir metin yazdırdıkça, modelin dil becerisi gelişiyor; gelişen bu dil becerisi ise Pentagon’un elinde karmaşık bir istihbarat raporunu saniyeler içinde analiz eden bir araca dönüşüyor. Yani sivil kullanıcılar, bilerek veya bilmeyerek, devasa bir askerî teknolojinin ücretsiz test uzmanları ve veri sağlayıcıları haline geliyor.

İkincisi, çift kullanımlı teknoloji çıkmazı. Nükleer enerjiden internete kadar pek çok teknoloji aslında askerî kökenlidir. Fakat yapay zekâda durum tersine işliyor; sivil kullanım için yaratılan bir ürün askerîleşiyor. OpenAI’ın askerî ihalelere girmesi, platformun regülasyon sürecini de tamamen değiştirecek. Ulusal güvenlik unsuru haline gelen ChatGPT’nin küresel tekelini korumak için, şirkete yönelik tekelcilik karşıtı davaları veya Avrupa Birliği’nin Yapay Zekâ Yasası gibi kısıtlayıcı regülasyonları zayıflatmak için ABD elinden geleni yapacaktır. Bu durum, teknoloji devlerinin demokratik denetimden ve yasal sınırlamalardan “milli güvenlik” kisvesi altında tamamen muaf tutulması riskini doğuruyor.

Üçüncüsü, etik ve taraflılık. Pentagon ile entegre çalışan bir yapay zekâ şirketinin, küresel jeopolitik meselelerde “tarafsız” kalması beklenebilir mi? ChatGPT’nin İsrail-Filistin meselesinden ABD-Çin ticaret savaşına kadar pek çok konuda üreteceği içerikler, ulusal güvenlik aygıtının önceliklerinden bağımsız olabilecek mi? Kullanıcılar artık sadece bir algoritma ile değil, ABD dış politikasının dijital bir uzantısıyla sohbet ettiklerinin farkına varmak zorunda kalacaklar.

Günün sonunda Anthropic ve Pentagon arasındaki bu kriz, bir ihale anlaşmazlığından çok daha büyük bir gerçeği ortaya çıkardı: Yeni nesil silahlanma yarışında ahlaki sınırların veya şirket prensiplerinin hiçbir geçerliliği yok. Devletin güvenlik aygıtı bir teknolojiye ihtiyaç duyduğunda, o teknolojinin sivil bir girişim mi yoksa askerî bir proje mi olduğu arasındaki çizgi anında siliniyor. Bugünden sonra, kullandığımız sohbet botlarına sadece işlerimizi kolaylaştıran dijital asistanlar olarak bakmak epey saflık olacak. Zira biz gündelik işlerimiz için yapay zekâya başvurdukça, arka planda sürekli kusursuzlaşan birer askerî strateji aygıtına dönüşüyorlar bile.

Mert Söyler

Bahçeşehir Üniversitesinde yeni medya ve sosyoloji lisans programlarını bitiren Mert Söyler, Bielefeld Üniversitesinde sosyoloji alanında yüksek lisans yaptı. İklim değişikliğinin göç politikalarına yansımaları, uluslararası ekonomi politik ve milliyetçilik konuları üzerine yayımlanmış akademik makaleleri bulunuyor. Söyler, aynı zamanda Daktilo1984’te içerik üretiyor.

Yazarın diğer yazıları
Bu yazıyla ilgili yorumunuzu paylaşabilirsiniz. Bunu yaparken Yorum Kurallarımızı dikkate alın lütfen.
Yorum adedi #0

*Tüm alanları doldurunuz

Son Yüklenenler