Dolandırıcıların yeni tuzağı ses ve görüntü taklitleri oldu

Kaspersky Uzman Veri Bilimcisi Vladislav Tushkanov, deepfake (çeşitli programlarla kişileri sanki onlar konuşuyormuş gibi konuşturarak kamuoyunu yanıltmak) videoları tespit etmenin zorluklarına işaret ederek, "İnternetteki bilgiler baz alınarak önemli bir karar almak tehlikelidir. Mutlaka bilgilerin önce kontrol edilmesi gerekiyor. İnternette gördüğünüz her şeye inanmamanız gerekiyor." dedi

Haberler 08.05.2023 - 23:58 Son Güncelleme : 08.05.2023 - 23:58

Kasperskynin Kazakistanda bu yıl 8incisini düzenlediği Siber Güvenlik Hafta Sonu-META 2023te uzman isimler, Orta Doğu, Türkiye ve Afrika (META) bölgesi ile dünya çapında dijital tehdit ortamındaki gelişmeleri paylaştı.

Kaspersky Uzman Veri Bilimcisi Tushkanov, deepfake ve ses taklit uygulamaları ile birçok dolandırıcılık faaliyeti gerçekleştirildiğini, bunların engellenmesi için çeşitli önlemlerin alınması gerektiğini söyledi.

Bu konuda özellikle şirketlerin önlem alması gerektiğini vurgulayan Tushkanov, Sizi ses taklidi ile dolandırmak isteyenler olabilir. Büyük miktarlarda paralar, 100 bin dolar gibi, sadece bir telefon konuşması ile verilmemeli. Bu tarz tuzaklara düşmemek için çeşitli protokollerin olması lazım. Bunun yanında eğitim ve farkındalık da çok önemli. Deepfake ve ses taklitlerinin gerçek olduğunu bilirseniz sizi sahte ses ve görüntülerle kandırmaya çalışan insanlara Bu konuları telefonda konuşmak istemiyorum. Bana kurumsal e-mail adresinizi verin diyebilirsiniz. şeklinde konuştu.

BAZI DEEPFAKE UYGULAMALAR ANLAŞILAMIYOR

Vladislav Tushkanov, deepfake videoların bir kısmının kolaylıkla tespit edilebileceğini aktararak, şu değerlendirmelerde bulundu:

Bazı deepfake videolarındaki kişiler hiç gözlerini kırpmıyor. Bunları kolaylıkla anlayabiliyoruz ancak çok iyi hazırlanmış bazı deepfake videolar da olabiliyor. Mesela, Tom Cruiseun yapılan deepfake videosu gerçekten çok profesyoneldi. Deepfake videoları yaratmak için geliştirilen teknoloji gelişiyor ama deepfake videoları teknolojisi de gelişiyor. Bu sebeple tamamen deepfakeyi tespit edebilen teknolojilere güvenmek çok da sağlıklı değil.

İNTERNET ÜZERİNDEN HER GÜN 400 BİN YENİ KÖTÜ AMAçLI DOSYA DAĞITILIYOR

Kaspersky Uzman Veri Bilimcisi Tushkanov, internet ortamında kontrol edilmesi ve doğrulanması imkansız derecede çok bilgi olduğuna dikkati çekerek, İnternetteki bilgiler baz alınarak önemli bir karar almak tehlikelidir. Mutlaka bilgilerin önce kontrol edilmesi gerekiyor. İnternette gördüğünüz her şeye inanmamanız gerekiyor. dedi.

Makine öğrenmesinin siber saldırılarla mücadelede çok yardımcı bir rol üstlendiğine işaret eden Tushkanov, şunları kaydetti:

Her gün çok fazla oltalama gibi saldırılarla karşı karşıya kalıyoruz. İnternet üzerinden her gün 400 bin yeni kötü amaçlı dosya dağıtılıyor. Herhangi bir insan bu kadar fazla saldırı ile başa çıkamaz. ChatGPTnin oltalama saldırılarını tespit edebildiği bir deney gerçekleştirdik. ChatGPT başarılı bir şekilde oltalama saldırısını keşfetti. Ancak ChatGPTnin bazı hatalar yaptığını görebiliyoruz. Bu yüzden bu sistemlere tamamen güvenmesem de bir potansiyel taşıdıklarını düşünüyorum.

BİRLEŞİK KRALLIKTA 243 BİN DOLARLIK DOLANDIRICILIK

Ses taklit edebilen uygulamaların son yıllarda dolandırıcılık faaliyetlerinde de kullanılması endişelere neden oluyor.

The Wall Street Journalın 2019da ortaya çıkardığı dolandırıcılık vakası, ses taklidi ile ilgili ilk büyük dolandırıcılık vakası olarak biliniyor.

Adı açıklanmayan ve merkezi Birleşik Krallıkta bulunan bir enerji şirketinin CEOsu, patronu zannettiği kişinin telefonda verdiği talimat üzerine dolandırıcılara 243 bin dolar para transferi yaptı. CEO, telefonda patronu ile konuştuğunu zannediyordu. Dolandırıcılar ses taklit uygulaması aracılığıyla patronun sesini klonlamıştı.

Ana Sayfaya Git