GERÇEK Mİ? YAPAY MI? YAPAY ZEKA

Savaşlarda Dezenformasyonun Yeni Yüzü (2. Bölüm)

12 Mart 2026 tarihli yazımda bir çerçeve çizmiştim.
Bugün o çerçevenin içi hızla doluyor. Hem de ürkütücü bir şekilde.

O gün sorduğum soru basitti:
Gerçek mi, yapay mı?

Bugün ise mesele çok daha karmaşık:
Gerçeğin yerini yapay olan mı alıyor, yoksa biz artık gerçeği ayırt etme yeteneğimizi mi kaybediyoruz?

Çünkü savaşların doğası kökten değişiyor.

Artık savaş dediğimiz şey sadece tankların ilerlediği, uçakların bombaladığı bir süreç değil. Savaş; aynı anda veri merkezlerinde, sosyal medya platformlarında, istihbarat ağlarında ve algoritmaların içinde yürütülüyor.

Ve belki de en tehlikelisi:
Bu savaşın cephe hattı görünmüyor.

Görmediğimiz Savaş: Algı Operasyonları Çağı

ABD, İsrail ve İran arasındaki gerilim, bu yeni savaş modelinin en somut örneklerinden biri haline gelmiş durumda.

Ortaya çıkan bazı görüntüler…
Paylaşılan uydu kayıtları…
Servis edilen “dinleme analizleri”…

Bunların önemli bir kısmının gerçekte yaşanmamış olayları yansıttığı, yapay zeka araçlarıyla üretildiği yönünde güçlü şüpheler var.

Ama burada kritik bir kırılma noktası var:

Artık bu içeriklerin gerçek olup olmaması tek başına belirleyici değil.

Çünkü bu içeriklerin dolaşıma girmesi bile başlı başına bir operasyon.

Örneğin; İran’ın dini lideri Ali Hamaney’e yönelik yapay zeka destekli bir saldırı iddiası… Ya da İran’da bir okulun hedef alındığı ve yüzlerce sivilin hayatını kaybettiğine dair yayılan haberler…

Bu tür içerikler doğru da olabilir, tamamen kurgu da.
Ama sonuç değişmiyor:

Toplumlar etkileniyor.
Devletler pozisyon alıyor.
Krizler derinleşiyor.

İşte bu yüzden artık şu cümleyi kurmak abartı değil:
Dezenformasyon, savaşın bir parçası değil; savaşın kendisidir.

 

Gerçeğin Buharlaşması

Tarihte propaganda her zaman vardı.
Ama hiçbir dönemde gerçek ile kurgu arasındaki çizgi bu kadar bilinçli ve sistematik şekilde yok edilmedi.

Bugün yapay zeka sayesinde:

Hiç yaşanmamış bir saldırı görüntüsü üretilebiliyor

Hiç söylenmemiş bir konuşma gerçekmiş gibi sunulabiliyor

Hiç yapılmamış bir operasyon, yapılmış gibi servis edilebiliyor

Ve en kritik nokta şu:
Bunların çoğu artık profesyoneller tarafından bile ilk bakışta ayırt edilemiyor.

Bu durum sadece bilgi kirliliği değil, aynı zamanda bir hakikat krizi yaratıyor.

Çünkü bir toplum gerçeğe güvenini kaybederse, yönünü de kaybeder.

 

Algoritmaların Karar Verdiği Savaşlar

Yapay zekanın askeri alandaki kullanımı yalnızca dezenformasyonla sınırlı değil.

İstihbarat analizinden hedef belirlemeye, operasyon planlamasından risk hesaplamalarına kadar pek çok kritik süreç artık algoritmalar tarafından yürütülüyor.

Bu sistemler:

Çok hızlı

Çok kapsamlı

Ve çoğu zaman insanın ulaşamayacağı veri derinliğine sahip

Ancak tam da bu noktada büyük bir risk ortaya çıkıyor:

Hız arttıkça hata payı görünmez hale geliyor.

Yanlış veriyle beslenen bir algoritma; yanlış hedef seçer.
Yanlış hedef ise sadece askeri bir hata değildir.

Bu;

Uluslararası kriz demektir

Diplomatik çöküş demektir

Ve çoğu zaman geri dönüşü olmayan insani kayıplar demektir

Bir başka ifadeyle:
Yapay zeka hataları teknik değil, jeopolitik sonuçlar doğurur.

 

12 Mart’tan 17 Mart’a: ABD’de Fren Mekanizması

Bu gelişmelerin gölgesinde, 17 Mart 2026’da ABD’de önemli bir adım atıldı.

Michiganlı Demokrat Senatör Elissa Slotkin, Pentagon’un yapay zeka kullanımını düzenlemeye yönelik bir yasa tasarısı sundu.

Tasarı, aslında modern savaşlara dair önemli bir sınır çiziyor:

Yapay zeka kendi başına öldürme kararı veremeyecek

Teknoloji, Amerikalılar üzerinde kitlesel gözetim amacıyla kullanılamayacak

Yapay zeka, nükleer silahların kontrolüne dahil edilemeyecek

Bu maddeler bize şunu söylüyor:

Teknoloji ne kadar gelişirse gelişsin, insan faktörü tamamen devre dışı bırakılamaz.

Ama aynı zamanda şu gerçeği de ortaya koyuyor:
ABD bile bu teknolojinin kontrolsüz kullanımından endişe ediyor.

 

Devlet mi, Şirket mi? Yeni Güç Dengesi

Asıl dikkat çekici gelişme ise devlet ile teknoloji şirketleri arasındaki gerilim.

Özellikle Anthropic ile ABD yönetimi arasındaki anlaşmazlık, bu yeni dönemin en kritik kırılma noktalarından biri.

Anthropic’in yaklaşımı net:

Kitlesel gözetim kabul edilemez

Ölümcül kararlar mutlaka insan kontrolünde olmalı

Ancak bu yaklaşım, devletin güvenlik politikalarıyla çelişiyor.

ABD Başkanı Donald Trump’ın, federal kurumlara Anthropic modellerini bırakmaları için süre tanıması ve şirketi “tedarik zinciri riski” ilan etmesi; meselenin bir güvenlik tartışmasından çıkıp güç mücadelesine dönüştüğünü gösteriyor.

Anthropic’in dava açması ise yeni bir dönemin habercisi:

Artık savaşlar sadece devletler arasında değil; devletlerle teknoloji şirketleri arasında da yaşanıyor.

 

Yeni Savaş Doktrini: Veri, Algoritma ve Algı

Bugün ABD, İsrail ve İran gibi aktörler için savaşın yeni unsurları şunlar:

Veri üretme gücü

Algoritma geliştirme kapasitesi

Kamuoyu yönlendirme becerisi

Klasik askeri unsurlar hâlâ önemli.
Ama artık yeterli değil.

Çünkü savaşın sonucu çoğu zaman sahada değil, zihinlerde belirleniyor.

Ve zihinleri yönlendiren şey artık gerçekler değil; algoritmaların ürettiği gerçeklikler.

 

Sonuç: Kaybedilen Sadece Savaş Olmayacak

Bugün geldiğimiz noktada en büyük risk şudur:

Savaşlar sadece toprak kaybettirmez.
Sadece can kaybına yol açmaz.

Savaşlar artık gerçeği de yok edebilir.

Ve gerçeğin ortadan kalktığı bir dünyada:

Doğru ile yanlışın anlamı kalmaz

Adalet duygusu zedelenir

Toplumlar manipülasyona açık hale gelir

Belki de en çarpıcı soru şu:

Gelecekte savaşlar kazanılacak mı, yoksa gerçeklik mi kaybedilecek?

Çünkü eğer gerçek kaybolursa…
Kazananın kim olduğu da artık bir anlam ifade etmeyecek.


Yorumlar

Yorum Yap