Kültür Sanat
Deepfake videolarının sayısı her yıl %900 oranında artıyor!
Dünya Ekonomik Forumu’na (WEF) göre çevrimiçi deepfake videoların sayısı her yıl %900 oranında artıyor.

Dünya Ekonomik Forumu’na (WEF) göre çevrimiçi deepfake videoların sayısı her yıl %900 oranında artıyor. Taciz, intikam ve kripto dolandırıcılıÄı ile ilgili raporlarla birlikte birçok önemli deepfake dolandırıcılık vakası haber manÅetlerine çıktı. Kaspersky araÅtırmacıları, kullanıcıların dikkat etmesi gereken ve deepfake kullanan ilk üç dolandırıcılık planına ıÅık tutuyor.Â
Yapay sinir aÄlarının, derin öÄrenmenin ve dolayısıyla deepfake aldatma tekniklerinin kullanımı, dünyanın dört bir yanındaki kullanıcıların yüzlerini veya vücutlarını dijital olarak deÄiÅtirmeye, böylece herhangi birinin baÅka biri gibi göründüÄü gerçekçi görüntü, video ve ses materyallerini üretmeye olanak saÄlıyor. Bu manipüle edilmiÅ video ve görüntüler sıklıkla yanlıŠbilgi yaymak ve diÄer kötü niyetli amaçlarla kullanılıyor.
Finansal dolandırıcılık
Deepfake’ler, suçluların kurbanları tuzaÄa çekmek amacıyla ünlüleri taklit etmek için geliÅtirdikleri görüntülerin kullanıldıÄı sosyal mühendislik tekniklerine konu olabiliyor. ÃrneÄin Elon Musk’ın Åüpheli bir kripto para yatırım planından yüksek getiri vaat eden yapay olarak oluÅturulmuÅ bir videosu, geçen yıl hızla yayılarak kullanıcıların para kaybetmelerine neden oldu. Dolandırıcılar bunun gibi sahte videolar yaratmak için ünlülerin görüntülerini kullanıyor, eski videoları bir araya getiriyor ve sosyal medya platformlarında canlı yayınlar baÅlatarak kendilerine gönderilen herhangi bir kripto para ödemesini iki katına çıkarma sözü veriyor.
Pornografik deepfake
Deepfake’lerin bir baÅka kullanım alanı da bireyin mahremiyetini ihlal etmek. Deepfake videolar, bir kiÅinin yüzünün pornografik bir video üzerine yerleÅtirilmesiyle oluÅturulabiliyor ve büyük zarara ve sıkıntıya neden olabiliyor. Bir vakada, bazı ünlülerin yüzlerinin müstehcen sahnelerdeki pornografik aktrislerin vücutlarına bindirildiÄi deepfake videolarının internette yayıldıÄı ortaya çıktı. Sonuç olarak, bu tür vakalarda saldırı maÄdurlarının itibarları zedeleniyor ve hakları ihlal ediliyor.
İÅe dair riskler
ÃoÄu zaman deepfake’ler Åirket yöneticilerinden haraç alma, Åantaj ve endüstriyel casusluk gibi suçlar için iÅletmeleri hedef almak üzere kullanılıyor. ÃrneÄin, siber suçlular bir ses deepfake’i kullanarak BAE’deki bir banka müdürünü kandırmayı ve 35 milyon dolar çalmayı baÅarmıÅtı. Söz konusu vakada ikna edici bir deepfake oluÅturmak için patronunun sesinin sadece küçük bir kaydının ele geçirilmesi yeterliydi. Bir baÅka vakada, dolandırıcılar en büyük kripto para platformu Binance’i kandırmaya çalıÅtı. Binance yöneticisi, hiç katılmadıÄı bir Zoom toplantısı hakkında “TeÅekkür ederim!” mesajları almaya baÅladıÄında ÅaÅırdı. Saldırganlar, yöneticinin herkese açık görüntüleriyle bir deepfake oluÅturmayı ve bunu çevrimiçi bir toplantıda yönetici adına konuÅarak uygulamayı baÅardılar.
FBI, insan kaynakları yöneticilerini uyarıyor!
Genel olarak, deepfake’leri kullanan dolandırıcıların amaçları arasında dezenformasyon ve kamuoyunu manipüle etme, Åantaj ve casusluk yer alıyor. Bir FBI uyarısına göre, insan kaynakları yöneticileri uzaktan çalıÅmak için baÅvuran adaylar tarafından deepfake kullanımı konusunda zaten tetikte bekliyor. Binance vakasında, saldırganlar deepfake oluÅturmak için internetten gerçek kiÅilerin görüntüleri kullandılar ve hatta bu kiÅilerin fotoÄraflarını özgeçmiÅlere eklediler. İnsan kaynakları yöneticilerini bu Åekilde kandırmayı baÅarırlarsa ve sonrasında bir teklif alırlarsa, devamında iÅveren verilerini çalabiliyorlar.
Deepfake’ler büyük bir bütçe gerektiren ve sayıları giderek artan pahalı bir dolandırıcılık türü olmaya devam ediyor. Kaspersky tarafından daha önce yapılan bir araÅtırma, darknet üzerindeki deepfake’lerin maliyetini ortaya koyuyor. Sıradan bir kullanıcı internette bir yazılım bulur ve bir deepfake yapmaya çalıÅırsa, sonuç gerçekçi olmayacak ve sahtekarlık bariz oluyor. Ãok az insan düÅük kaliteli bir deepfake’e inanıyor. Yüz ifadesindeki gecikmeleri veya çene Åeklindeki bulanıklıÄı hemen fark edebiliyor.
Bu nedenle, siber suçlular bir saldırıya hazırlanırken büyük miktarda veriye ihtiyaç duyuyor. Taklit etmek istedikleri kiÅinin fotoÄrafları, videoları ve sesleri gibi. Farklı açılar, ıÅık parlaklıÄı, yüz ifadeleri, hepsi nihai kalitede büyük rol oynuyor. Sonucun gerçekçi olması için güncel bir bilgisayarın gücü ve yazılımı gerekiyor. Tüm bunlar büyük miktarda kaynak gerektiriyor ve bu kaynaÄa yalnızca az sayıda siber suçlu eriÅebiliyor. Bu nedenle deepfake saÄlayabileceÄi tehlikelere raÄmen hala son derece nadir bir tehdit olmaya devam ediyor ve yalnızca az sayıda alıcı bunu karÅılayabiliyor. Netice olarak bir dakikalık bir “deepfake’in fiyatı 20 bin ABD dolarından baÅlıyor.
âBazen itibar riskleri çok ciddi sonuçlar doÄurabilirâ
Kaspersky’de Kıdemli Güvenlik Uzmanı Dmitry Anikin, Åunları söylüyor: “Deepfake’in iÅletmeler için oluÅturduÄu en ciddi tehditlerden biri her zaman kurumsal verilerin çalınması deÄildir. Bazen itibar riskleri çok ciddi sonuçlar doÄurabilir. Yöneticinizin (görünüÅe göre) hassas konularda kutuplaÅtırıcı açıklamalar yaptıÄı bir videonun yayınlandıÄını düÅünün. Åirket için bu durum hisse fiyatlarında hızlı bir düÅüÅe yol açabilir. Ancak, böyle bir tehdidin riskleri son derece yüksek olmasına raÄmen, deepfake oluÅturmanın maliyeti ve çok az saldırganın yüksek kaliteli bir deepfake oluÅturabilmesi nedeniyle bu Åekilde saldırıya uÄrama Åansınız son derece düÅüktür. Bu konuda yapabileceÄiniz Åey, deepfake videoların temel özelliklerinin farkında olmak ve size gelen sesli mesaj ve videolara Åüpheyle yaklaÅmaktır. Ayrıca, çalıÅanlarınızın deepfake’in ne olduÄunu ve nasıl fark edebileceklerini anladıklarından emin olun. ÃrneÄin sarsıntılı hareket, cilt tonunda kaymalar, garip göz kırpma veya hiç göz kırpmama gibi iÅaretler belirleyici olacaktır.”
Darknet kaynaklarının sürekli olarak izlenmesi, deepfake endüstrisi hakkında deÄerli bilgiler saÄlayarak araÅtırmacıların bu alandaki tehdit aktörlerinin en son eÄilimlerini ve faaliyetlerini takip etmelerine olanak saÄlıyor. AraÅtırmacılar darknet’i izleyerek deepfake’lerin oluÅturulması ve daÄıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araÅtırmasının kritik bir bileÅenini oluÅturuyor ve geliÅen tehdit ortamına iliÅkin anlayıÅımızı geliÅtirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müÅterilerinin deepfake ile ilgili tehditler söz konusu olduÄunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.
Kaspersky Daily’de deepfake endüstrisi hakkında daha fazla bilgi edinebilirsiniz.
Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için Åunları öneriyor:
- KuruluÅunuzdaki siber güvenlik uygulamalarını kontrol edin- yalnızca yazılım açısından deÄil, geliÅmiÅ BT becerileri açısından da. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.Â
- Kurumsal “insan güvenlik duvarını” güçlendirin. ÃalıÅanlarınızın deepfake’in ne olduÄunu, nasıl çalıÅtıklarını ve oluÅturabilecekleri zorlukları anladıÄından emin olun. ÃalıÅanlara bir deepfake’i nasıl tespit edeceklerini öÄretmek için sürekli farkındalık ve eÄitim çalıÅmaları yapın. Kaspersky Automated Security Awareness Platform, çalıÅanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.
- Kaliteli haber kaynaklarına baÅvurun. Cehalet ve bilgi eksikliÄi deepfake’lerin yaygınlaÅmasında önemli bir etken olmaya devam etmektedir.Â
- ‘Güven ama doÄrula’ gibi saÄlam protokolleri devreye alın. Sesli mesaj ve videolara Åüpheyle yaklaÅmak insanların asla kandırılmayacaÄını garanti etmez, ancak yaygın tuzakların çoÄundan kaçınmaya yardımcı olabilir.Â
- Deepfake kurbanı olmamak için videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diÄerine ıÅıkta kaymalar, cilt tonunda deÄiÅimler, garip göz kırpmalar veya hiç göz kırpmama, konuÅmayla uyum saÄlamayan dudaklar, görüntüdeki dijital yapaylıklar, kasıtlı olarak düÅük kalitede kodlanmıŠve zayıf aydınlatmaya sahip videolar gibi.
Â
Kaynak: (BYZHA) Beyaz Haber Ajansı