GERÇEK Mİ? YAPAY MI? YAPAY ZEKA
Savaşlarda Dezenformasyonun Yeni Yüzü (2. Bölüm)
12 Mart 2026 tarihli yazımda bir çerçeve çizmiştim.
Bugün o çerçevenin içi hızla doluyor. Hem de ürkütücü bir şekilde.
O gün sorduğum soru basitti:
Gerçek mi, yapay mı?
Bugün ise mesele çok daha karmaşık:
Gerçeğin yerini yapay olan mı alıyor, yoksa biz artık gerçeği ayırt etme yeteneğimizi mi kaybediyoruz?
Çünkü savaşların doğası kökten değişiyor.
Artık savaş dediğimiz şey sadece tankların ilerlediği, uçakların bombaladığı bir süreç değil. Savaş; aynı anda veri merkezlerinde, sosyal medya platformlarında, istihbarat ağlarında ve algoritmaların içinde yürütülüyor.
Ve belki de en tehlikelisi:
Bu savaşın cephe hattı görünmüyor.
Görmediğimiz Savaş: Algı Operasyonları Çağı
ABD, İsrail ve İran arasındaki gerilim, bu yeni savaş modelinin en somut örneklerinden biri haline gelmiş durumda.
Ortaya çıkan bazı görüntüler…
Paylaşılan uydu kayıtları…
Servis edilen “dinleme analizleri”…
Bunların önemli bir kısmının gerçekte yaşanmamış olayları yansıttığı, yapay zeka araçlarıyla üretildiği yönünde güçlü şüpheler var.
Ama burada kritik bir kırılma noktası var:
Artık bu içeriklerin gerçek olup olmaması tek başına belirleyici değil.
Çünkü bu içeriklerin dolaşıma girmesi bile başlı başına bir operasyon.
Örneğin; İran’ın dini lideri Ali Hamaney’e yönelik yapay zeka destekli bir saldırı iddiası… Ya da İran’da bir okulun hedef alındığı ve yüzlerce sivilin hayatını kaybettiğine dair yayılan haberler…
Bu tür içerikler doğru da olabilir, tamamen kurgu da.
Ama sonuç değişmiyor:
Toplumlar etkileniyor.
Devletler pozisyon alıyor.
Krizler derinleşiyor.
İşte bu yüzden artık şu cümleyi kurmak abartı değil:
Dezenformasyon, savaşın bir parçası değil; savaşın kendisidir.
Gerçeğin Buharlaşması
Tarihte propaganda her zaman vardı.
Ama hiçbir dönemde gerçek ile kurgu arasındaki çizgi bu kadar bilinçli ve sistematik şekilde yok edilmedi.
Bugün yapay zeka sayesinde:
Hiç yaşanmamış bir saldırı görüntüsü üretilebiliyor
Hiç söylenmemiş bir konuşma gerçekmiş gibi sunulabiliyor
Hiç yapılmamış bir operasyon, yapılmış gibi servis edilebiliyor
Ve en kritik nokta şu:
Bunların çoğu artık profesyoneller tarafından bile ilk bakışta ayırt edilemiyor.
Bu durum sadece bilgi kirliliği değil, aynı zamanda bir hakikat krizi yaratıyor.
Çünkü bir toplum gerçeğe güvenini kaybederse, yönünü de kaybeder.
Algoritmaların Karar Verdiği Savaşlar
Yapay zekanın askeri alandaki kullanımı yalnızca dezenformasyonla sınırlı değil.
İstihbarat analizinden hedef belirlemeye, operasyon planlamasından risk hesaplamalarına kadar pek çok kritik süreç artık algoritmalar tarafından yürütülüyor.
Bu sistemler:
Çok hızlı
Çok kapsamlı
Ve çoğu zaman insanın ulaşamayacağı veri derinliğine sahip
Ancak tam da bu noktada büyük bir risk ortaya çıkıyor:
Hız arttıkça hata payı görünmez hale geliyor.
Yanlış veriyle beslenen bir algoritma; yanlış hedef seçer.
Yanlış hedef ise sadece askeri bir hata değildir.
Bu;
Uluslararası kriz demektir
Diplomatik çöküş demektir
Ve çoğu zaman geri dönüşü olmayan insani kayıplar demektir
Bir başka ifadeyle:
Yapay zeka hataları teknik değil, jeopolitik sonuçlar doğurur.
12 Mart’tan 17 Mart’a: ABD’de Fren Mekanizması
Bu gelişmelerin gölgesinde, 17 Mart 2026’da ABD’de önemli bir adım atıldı.
Michiganlı Demokrat Senatör Elissa Slotkin, Pentagon’un yapay zeka kullanımını düzenlemeye yönelik bir yasa tasarısı sundu.
Tasarı, aslında modern savaşlara dair önemli bir sınır çiziyor:
Yapay zeka kendi başına öldürme kararı veremeyecek
Teknoloji, Amerikalılar üzerinde kitlesel gözetim amacıyla kullanılamayacak
Yapay zeka, nükleer silahların kontrolüne dahil edilemeyecek
Bu maddeler bize şunu söylüyor:
Teknoloji ne kadar gelişirse gelişsin, insan faktörü tamamen devre dışı bırakılamaz.
Ama aynı zamanda şu gerçeği de ortaya koyuyor:
ABD bile bu teknolojinin kontrolsüz kullanımından endişe ediyor.
Devlet mi, Şirket mi? Yeni Güç Dengesi
Asıl dikkat çekici gelişme ise devlet ile teknoloji şirketleri arasındaki gerilim.
Özellikle Anthropic ile ABD yönetimi arasındaki anlaşmazlık, bu yeni dönemin en kritik kırılma noktalarından biri.
Anthropic’in yaklaşımı net:
Kitlesel gözetim kabul edilemez
Ölümcül kararlar mutlaka insan kontrolünde olmalı
Ancak bu yaklaşım, devletin güvenlik politikalarıyla çelişiyor.
ABD Başkanı Donald Trump’ın, federal kurumlara Anthropic modellerini bırakmaları için süre tanıması ve şirketi “tedarik zinciri riski” ilan etmesi; meselenin bir güvenlik tartışmasından çıkıp güç mücadelesine dönüştüğünü gösteriyor.
Anthropic’in dava açması ise yeni bir dönemin habercisi:
Artık savaşlar sadece devletler arasında değil; devletlerle teknoloji şirketleri arasında da yaşanıyor.
Yeni Savaş Doktrini: Veri, Algoritma ve Algı
Bugün ABD, İsrail ve İran gibi aktörler için savaşın yeni unsurları şunlar:
Veri üretme gücü
Algoritma geliştirme kapasitesi
Kamuoyu yönlendirme becerisi
Klasik askeri unsurlar hâlâ önemli.
Ama artık yeterli değil.
Çünkü savaşın sonucu çoğu zaman sahada değil, zihinlerde belirleniyor.
Ve zihinleri yönlendiren şey artık gerçekler değil; algoritmaların ürettiği gerçeklikler.
Sonuç: Kaybedilen Sadece Savaş Olmayacak
Bugün geldiğimiz noktada en büyük risk şudur:
Savaşlar sadece toprak kaybettirmez.
Sadece can kaybına yol açmaz.
Savaşlar artık gerçeği de yok edebilir.
Ve gerçeğin ortadan kalktığı bir dünyada:
Doğru ile yanlışın anlamı kalmaz
Adalet duygusu zedelenir
Toplumlar manipülasyona açık hale gelir
Belki de en çarpıcı soru şu:
Gelecekte savaşlar kazanılacak mı, yoksa gerçeklik mi kaybedilecek?
Çünkü eğer gerçek kaybolursa…
Kazananın kim olduğu da artık bir anlam ifade etmeyecek.
Mesut Değer - Önceki Yazıları
-
GERÇEK MI? YAPAY MI? YAPAY ZEKA
12 Mart 2026
-
Büyük Satranç Tahtası: İran Krizi, Kürt Kartı ve Yeni Jeopolitik Hesaplar
06 Mart 2026
-
SÖYLEMDE BİRLİK, UYGULAMADA AYRIŞMA OLMASIN
21 Şubat 2026
-
TÜRKİYE – İSRAİL İlişkilerinin Düzeltilmesi Üzerine
02 Şubat 2026
-
2026: Siyaset, Güvenlik Ve Toplumsal Mücadelelerin Yılı
08 Ocak 2026