Anthropic

Vurulan Hedefleri Yapay Zekânın Seçtiği İlk Savaş: ABD-İsrail’in İran’a Yönelik Saldırıları

ABD ve İsrail’in İran’a yönelik son harekâtı, yapay zekânın savaşın merkezine yerleştiği yeni bir dönemin işareti oldu. Palantir’in veri platformu, Anthropic’in Claude modeli ve uydu ağlarıyla desteklenen sistemler; istihbarat analizinden hedef seçimine ve operasyon simülasyonlarına kadar birçok kritik kararı algoritmaların hızına taşıdı. Uzmanlara göre bu operasyon, askerî karar döngüsünün ilk kez bu ölçekte “makine hızında” işlediği bir savaş olarak kayda geçti.

Vurulan Hedefleri Yapay Zekânın Seçtiği İlk Savaş: ABD-İsrail’in İran’a Yönelik Saldırıları
Fotoğraf: SquareMotion - Shutterstock.

ABD ve İsrail’in İran’a yönelik son saldırıları, yalnızca ölçeği ve siyasi sonuçlarıyla değil, savaş teknolojilerinde açtığı yeni eşikle de dikkat çekti. Operasyona dair ortaya çıkan bilgiler, yapay zekâ sistemlerinin bu kez arka planda çalışan yardımcı araçlar olmaktan çıkıp hedef tespiti, önceliklendirme, savaş simülasyonu ve iletişim üstünlüğü gibi kritik alanlarda doğrudan belirleyici rol oynadığını gösteriyor. Bu yönüyle İran harekâtı, askerî karar süreçlerinin insan hızından makine hızına taşındığı yeni dönemin en görünür örneklerinden biri olarak kayda geçti.

Gazete Oksijen‘den Uğur Koçbaş’ın haberine göre, bu dönüşüm tesadüfi değil. Pentagon, 9 Ocak 2026’da yayımladığı “AI First” başlıklı direktifiyle yapay zekâyı askerî faaliyetlerin merkezine yerleştireceğini ilan etmişti. Yedi sayfalık belge, Savunma Bakanlığının öncü yapay zekâ modelleriyle denemeleri hızlandırmasını, bu sistemlerin kullanımını yavaşlatan bürokratik engelleri kaldırmasını ve veriyi savaş gücünün asli bileşeni haline getirmesini öngörüyordu. Aradan geçen yaklaşık 50 günün ardından İran’a yönelik operasyon, bu yaklaşımın ilk büyük saha uygulaması oldu.

Yapay Zekâ Hazırlık Sürecini Kısalttı: Vurulacak Hedefler Birkaç Saat İçinde Belirleniyor

Operasyonun merkezinde, Trump yönetimine yakın Peter Thiel’in sahiplerinden biri olduğu Palantir firmasının Pentagon için geliştirdiği Maven Smart System yer aldı. Uydu görüntüleri, saha raporları, sinyal istihbaratı ve diğer gizli veri akışlarını tek platformda birleştiren bu sistem, uzun süredir ABD ordusunun karar destek altyapısında kullanılıyordu. Ancak İran saldırısında fark yaratan unsur, bu yapının içine Anthropic’in büyük dil modeli Claude’un entegre edilmiş olmasıydı.

Claude, toplanan çok büyük hacimli veriyi yalnızca özetleyen bir araç olarak değil, hedef önerileri üreten, bu hedefleri önem sırasına koyan ve farklı operasyon senaryolarını karşılaştıran bir akıl yürütme katmanı olarak kullanıldı. Amerikan basınına yansıyan bilgilere göre sistem, planlama sürecinde yüzlerce hedef önerdi, hassas konum koordinatları çıkardı ve bunları askerî önceliklere göre sıraladı. Böylece normal şartlarda günler ya da haftalar alabilecek hedef paketi hazırlıkları, gerçek zamanlı karar süreçlerine yaklaştı.

Pentagon çevrelerinden aktarılan değerlendirmeler, bu teknolojik sıçramanın operasyon temposunu ciddi biçimde artırdığını gösteriyor. İran’ın karşılık verme kapasitesini azaltan unsur yalnızca saldırının şiddeti değil, karar alma ve uygulama hızının alışılmış askerî ritmin çok ötesine taşınmış olmasıydı. Yapay zekâ destekli sistemler, saldırı başladıktan sonra da etkisini sürdürdü; sahadan gelen yeni bilgileri işleyip hedef önceliklerini güncelledi ve operasyonun sonraki aşamalarına veri sağladı.

Antropic ile Bağını Koparan Trump Yönetimi, Şirketin Altyapısını Kullanmaya Devam Etmiş

Operasyonun en çarpıcı siyasi boyutlarından biri, 28 Şubat’taki saldırıdan saatler önce Trump yönetiminin Anthropic ile tüm bağlarını kopardığını duyurmasına rağmen şirketin geliştirdiği Claude yapay zekâ modelinin sahada kullanılmaya devam etmesi oldu. ABD Başkanı Donald Trump, federal kurumların Anthropic araçlarını kullanmasını yasakladığını açıklamış ve şirketi sert sözlerle eleştirmişti. Ancak saldırının planlanması ve icrası sırasında ABD Merkez Komutanlığı (CENTCOM) personelinin hedef belirleme, istihbarat analizi ve savaş simülasyonları için Claude destekli sistemlerden yararlandığı ortaya çıktı.

Beyaz Saray ile şirket arasında yaşanan gerilim, özellikle yapay zekânın kitlesel gözetim faaliyetlerinde ve tam otonom silah sistemlerinde kullanılmasına ilişkin anlaşmazlıklardan kaynaklanıyordu. Anthropic yönetimi bu alanlarda sınırlar koymak isterken, Savunma Bakanlığı daha geniş ve kısıtsız kullanım talep etmişti.

Buna rağmen Pentagon’un sistemi bir anda devre dışı bırakamaması, Washington Post’un değerlendirmesine göre ABD devletinin artık yalnızca teknoloji şirketlerini yönlendiren bir aktör olmadığını da gösterdi. Özellikle istihbarat analizi ve askerî hedeflerin belirlenmesi gibi kritik alanlarda bu şirketlerin geliştirdiği yapay zekâ altyapılarına ciddi ölçüde bağımlılık oluşmuş durumda. Bu nedenle Savunma Bakanlığı, Anthropic sistemlerini tamamen devreden çıkarabilmek için yaklaşık 6 ay sürebilecek bir “kademeli geçiş” sürecine ihtiyaç duyabileceğini söylüyor.

Yapay Zekâ Yardımcı Unsur Değil, Savaştaki Karar Alma Sürecinin Parçası Hâline Geldi

Bu tabloyu önemli kılan nokta, yapay zekânın artık yalnızca istihbarat memurlarına ya da analistlere yardımcı olan bir yazılım olarak değil, doğrudan savaşın karar döngüsüne yerleşmiş olması. Askerî literatürde “kill chain” diye anılan süreç; hedefin bulunması, doğrulanması, hukuki ve operasyonel değerlendirmeden geçirilmesi ve vurulmasına kadar uzanan zinciri ifade ediyor. İran operasyonunda yapay zekâ sistemlerinin tam da bu zinciri hızlandırmak için kullanıldığı anlaşılıyor.

Buradaki asıl kırılma, insan gözetiminin tamamen ortadan kalkmasından ziyade insanın karar içindeki ağırlığının azalması. Sistemler artık yalnızca “şu veriye bak” demiyor; “önce bunu vur”, “bu hedef daha kritik”, “bu senaryo daha düşük riskli” gibi önerileri çok daha yüksek hızda üretiyor. Bu da nihai karar insanda kalsa bile karar ortamını ve zaman baskısını algoritmaların belirlediği yeni bir savaş biçimi ortaya çıkarıyor.

Washington Post‘a konuşan Paul Scharre gibi askerî yapay zekâ alanında çalışan uzmanların dikkat çektiği nokta da bu: Yapay zekâ, hedef paketlerini insan hızında değil makine hızında hazırlıyor. Ancak aynı hız, hata payı ve denetim sorusunu daha da kritik hale getiriyor. Büyük dil modellerinin yanlış sonuç üretebildiği, eksik veriden aşırı kesin çıkarımlar yapabildiği ya da bağlamı yanlış okuyabildiği biliniyor. Barış zamanında rahatsız edici olan bu sorunlar, savaşta ölümcül sonuçlar doğurabilir.

Basına yansıyan bilgilere göre saldırının bir diğer boyutu ise Elon Musk’ın SpaceX şirketine bağlı Starshield programına ait uydu altyapısı oluşturdu. Askerî amaçlar için geliştirilen ve yüzlerce özel uydudan oluşan bu sistemin, operasyon sırasında İran üzerindeki iletişim trafiğini izlemek ve baskılamak için kullanıldığı değerlendiriliyor. Uydu ağı sayesinde İran’ın cephe hattındaki komuta-kontrol iletişimi ve veri aktarımı ciddi ölçüde sekteye uğrarken, saldırı öncesinde hava savunma ve koordinasyon ağlarının zayıflatıldığı belirtiliyor. Böylece ABD ve İsrail güçleri, hava saldırıları başlamadan önce İran’ın sahadaki iletişim kapasitesini önemli ölçüde sınırlamış oldu. Musk’a ait Starlink uyku ağı da Ocak 2026’daki kitlesel protestolar sırasında internet kısatlmasını delmek amacıyla İran geneline internet erişimi sağlamıştı.

İsrail’in Yapay Zekâ Teknolojisi de İran’a Yönelik Saldırılarda Kullanıldı

Operasyonda yalnızca Amerikan sistemleri değil, İsrail’in uzun süredir kullandığı algoritmik hedefleme araçları da öne çıktı. Habsora adlı sistemin bina, tesis ve lojistik ağlara ilişkin büyük veri yığınlarını işleyerek geniş ölçekli hedef listeleri ürettiği; Lavender’ın ise bireysel hedeflerin belirlenmesinde, özellikle de komuta yapısına yönelik nokta atışı saldırılarda kullanıldığı belirtiliyor. Tahran’daki kamera ağları ve iletişim altyapısından elde edilen verilerin bu süreçte önemli rol oynadığı aktarılıyor.

Bu yapı, ABD’nin veri işleme ve simülasyon kapasitesiyle İsrail’in hedef bankası üretme tecrübesinin aynı operasyon içinde birleştiğini düşündürüyor. Yapay zekâ teknolojisiyle ortaya çıkan askerî altyapı, tek tek silah sistemlerinden daha büyük bir bütün: Veri toplayan, bunları ayıklayan, önceliklendiren ve saldırıyı buna göre şekillendiren birleşik bir algoritmik savaş mimarisi.

Algoritmik Hedefleme Sistemlerinin Riskleri: Seçilen Hedeflerin Yüzde 10’u Hatalı

Ancak yapay zekâ destekli hedef belirleme sistemlerinin hız ve ölçek avantajı, ciddi riskleri de beraberinde getiriyor. Uzmanlar, büyük dil modellerinin “halüsinasyon” olarak bilinen hatalı çıkarımlar üretme eğilimine sahip olduğunu hatırlatıyor. Bu tür sistemler, belirsiz veriler karşısında “bilmiyorum” demek yerine tahmin üretmeye teşvik edildiği için, yanlış veya eksik bilgilerden hatalı sonuçlar çıkarabiliyor. Bu durum savaş gibi hayat ve ölüm kararlarının verildiği ortamlarda özellikle endişe verici görülüyor.

Bloomberg‘e konuşan Oxford Internet Institute’ten dijital etik ve savunma teknolojileri uzmanı Mariarosaria Taddeo, yapay zekâ temelli hedefleme araçlarının geçmişte de hatalara yol açtığını hatırlatıyor. 2024’te yapılan bir araştırmada İsrail’in Gazze’de kullandığı Lavender adlı algoritmik hedef belirleme sisteminin yaklaşık yüzde 10 hata payına sahip olduğu ve binlerce kişinin yanlışlıkla hedef listesine girdiği ortaya çıkmıştı. Taddeo’ya göre bu örnek, veri analizi temelli algoritmaların savaş koşullarında ciddi yanlış hesaplamalara yol açabileceğini gösteriyor.

Queen Mary University of London’dan siyaset teorisyeni Elke Schwarz ise sorunun yalnızca teknik hatalarla sınırlı olmadığını vurguluyor. Schwarz’a göre yapay zekâ sistemleri savaşta karar süreçlerini hızlandırmak için kullanılıyor; ancak hız arttıkça insan denetimi azalıyor ve kararlar daha az sorgulanıyor. Bu durum, askerî planlamanın giderek daha opak hale gelmesine ve öldürücü kararların arkasındaki algoritmik süreçlerin kamuoyundan gizli kalmasına yol açıyor. Uzmanlar, bu nedenle yapay zekânın savaşta kullanımına ilişkin daha güçlü şeffaflık ve denetim mekanizmalarının oluşturulması gerektiğini savunuyor. (P)

Bu yazıyla ilgili yorumunuzu paylaşabilirsiniz. Bunu yaparken Yorum Kurallarımızı dikkate alın lütfen.
Yorum adedi #0

*Tüm alanları doldurunuz

Son Yüklenenler