Ana içeriğe atlayın

Deepfake'in yeni ortaya çıkan dünyası

Deepfake, "deep learning" teriminden gelen "deep" (derin) ve elbette "fake" (sahte) kelimelerinin birleştirilmesiyle oluşturulmuştur. Derin öğrenme, ham verilerden aşama aşama daha üst düzey özelliklerin elde edilmesi için birden çok makine öğrenimi algoritmasını kullanan gelişmiş bir Yapay Zeka (AI) yöntemidir. Bu metot, insan yüzü gibi yapısal olmayan verilerden öğrenme kabiliyetine sahiptir. Örneğin, bir yapay zeka fiziksel hareketleriniz üzerine veri toplayabilir.

Ardından bu veri, GAN (Üretken Çekişmeli Ağ) yoluyla bir Deepfake video oluşturmak üzere işlenebilir. GAN, farklı bir özelleştirilmiş makine öğrenimi sistemi türüdür. İki sinir ağı, bir eğitim setinin (örneğin insan yüzü fotoğrafları) belirleyici özelliklerini öğrenme ve ardından aynı özelliklerle yeni verilerin (yeni "fotoğraflar") üretilmesi konusunda birbirleriyle rekabet etmek üzere kullanılır.

Böyle bir ağ, oluşturduğu görüntüleri sürekli eğitim setiyle karşılaştırdığı için sahte görüntüler giderek daha inandırıcı hale gelir. Bu durum Deepfake'i daha da tehlikeli bir tehdit haline getirir. Ayrıca GAN'lar fotoğraf ve videoların yanında başka verilerin de sahtesini üretebilir. Aslında, aynı Deepfake makine öğrenimi ve sentezleme teknikleri, sahte sesler üretmek için de kullanılabilir.

Deepfake örnekleri

Üst düzey Deepfake örneklerini bulmak zor değildir. Aktör Jordan Peele'nin Deepfake videolarına karşı uyarıda bulunmak için yayınladığı, kendi Obama görüntüsü ile birleştirilmiş gerçek Barack Obama görüntülerini kullandığı video buna örnektir. Aktör daha sonra birleştirilmiş videonun, iki yarısının birbirinden ayrıldığında nasıl göründüğünü göstermiştir. Peki tavsiyesi nedir? Ne gördüğümüzü sorgulamamız gerektiği.

Facebook CEO'su Mark Zuckerberg'in, Facebook'un çalınmış kullanıcı verileri yoluyla nasıl "geleceği kontrol ettiği" üzerine konuşurken göründüğü video; üstelik de Instagram'da. Özgün video Rusya'nın seçimlere müdahalesi üzerine yaptığı bir konuşmadan alınmış. Söz konusu konuşmanın sadece 21 saniyesi yeni videoyu sentezlemek için yeterli olmuş. Bununla birlikte, ses taklidi Jordan Peele'nin Obama'sı kadar iyi değil ve gerçeği ele veriyor.

Ancak çok daha kötü yapılmış sahte üretimler bile olağanüstü etki yaratabilir. Nancy Pelosi'yi "sarhoş" gösteren video, YouTube'da milyonlarca izleyiciye ulaştı. Aslında bu, kelimeleri ağzında yuvarladığı izlenimi vermek üzere videonun yapay olarak yavaşlatılması ile hazırlanmış sahte bir videoydu. Bunun dışında, pek çok ünlü kadın kendilerini, yüzleri porno filmlere ve görüntülere eklenerek hazırlanmış intikam amaçlı porno ürünlerin "yıldızları" olarak buldu.

banner

Deepfake tehditleri: dolandırıcılık ve şantaj

Deepfake videolar, kişisel intikam alma amacının yanı sıra politik amaçlarla da kullanıldı. Ancak bu videolar giderek artan bir şekilde büyük şantaj ve dolandırıcılık teşebbüslerinde kullanılıyor.

Bir İngiliz enerji şirketinin CEO'su, ana şirketinin yöneticisinin kendisinden acil bir para transferi talep ettiği Deepfake bir ses kaydı yoluyla 243.000 dolar dolandırıldı. Sahte kayıt o kadar inandırıcı yapılmıştı ki kontrol etmeye gerek duymadı, para merkez ofise değil üçüncü taraf bir banka hesabına havale edildi. CEO durumdan ancak "patronu" bir başka havale daha talep edince şüphelendi. Bu kez alarm zilleri çaldı ancak önceden transfer edilen parayı geri almak için artık çok geç kalınmıştı.

Fransa'da yakın zamanda gerçekleşen bir sahtekarlık, Deepfake teknolojisinden yararlanmıyordu ancak üst düzey yöneticileri milyonlarca Euro dolandırmak için Dışişleri Bakanı Jean-Yves le Drian'ın ofisinin ve mobilyalarının titiz bir şekilde kopyalanmasını ve kendisinin kimliğine bürünülmesini içeriyordu. Dolandırıcı Gilbert Chikli iddialara göre kendisini bakanın kılığına sokarak varlıklı bireylerden ve şirket yöneticilerinden Suriye'deki Fransız rehinelerin serbest bırakılması için fidye parası istemişti; dava süreci hala devam ediyor.

Deepfake tehditleri ve tehlikeleri

Deepfake hazırlayanların, kendilerine ödeme yapılmadığı takdirde olumsuz etkileri olacak Deepfake bir video yayınlamakla şirket sahiplerini tehdit ederek şantaj yapmaları da mümkün. Bunun yanı sıra kötü amaçlı kişiler, Bilişim Kurulu Başkanı'nızdan gelen bir video çağrısı sentezleyip çalışanları parolalarını ve ayrıcalıklarını açıklamaları yönünde kandırarak ağınıza kolayca sızabilir. Ardından, korsanlar hassas veri tabanınızın dört köşesinde cirit atmaya başlayacaktır.

Gücün kötüye kullanılması vakalarını ortaya çıkaran Hindistan'daki Rana Ayyub örneğindeki gibi, Deepfake porno videolar kadın gazetecilere ve habercilere şantaj yapmak için daha önce kullanıldı. Teknoloji ucuzladıkça Deepfake'in şantaj ve dolandırıcılık amacıyla daha fazla kullanılması beklenebilir.

Kendimizi Deepfake'e karşı nasıl koruyabiliriz?

Şimdiden Deepfake videoların yarattığı tehditle ilgili yasalar oluşturulmaya başlandı. Örneğin, Kaliforniya Eyaleti'nde geçtiğimiz yıl geçirilen iki yasa teklifi Deepfake kullanımını yasa dışı hale getirdi: AB-602, söz konusu kişinin rızası olmadan pornografik üretimler için insan görüntüsü sentezlemeden yararlanılmasını yasaklarken, AB-730 seçimlerden önceki 60 gün içerisinde aday olan politikacıların görüntülerinin manipülasyonunu yasaklıyor.

Ancak bu yeterli mi? Neyse ki siber güvenlik şirketleri sürekli daha fazla ve daha iyi algılama algoritmaları oluşturuyor. Bu algoritmalar, video görüntüsünü analiz ederek "taklit" sürecinde oluşan çok küçük görüntü bozukluklarını belirler. Örneğin, mevcut Deepfake sentezleyicileri 2 boyutlu bir yüzü modelleyip ardından videonun 3 boyutlu perspektifine uydurmak için bu görüntünün biçimini değiştirir. Burnun hangi yöne doğru olduğuna bakılması önemli bir ipucudur.

Deepfake videolar henüz ipuçlarını kendi başınıza keşfedebileceğiniz bir aşamada. Deepfake videolara özgü aşağıdaki özellikleri arayın:

  • Sarsak hareketler
  • Bir kareden diğerine geçişte ışık değişimleri
  • Ten renginde kaymalar
  • Garip göz kırpma hareketleri veya hiç göz kırpışı olmaması
  • Dudak hareketlerinin konuşmaya uymaması
  • Görüntüde dijital yapay öğeler

Ancak Deepfake üretimler iyileştikçe sahte videoları kendi gözlerinizle ayırt etmekte zorlanacağınızdan iyi bir siber güvenlik programından alacağınız yardım artacaktır.

Modern sahte üretim karşıtı teknoloji

Yeni ortaya çıkan bazı teknolojiler artık video yapımcılarının videolarının gerçekliğini doğrulayabilmelerine yardımcı oluyor. Kriptografik bir algoritma, videonun içine belirli aralıklarla karma değerleri eklenmesi için kullanılabilir. Video değiştirilirse karma değerleri de değişecektir. Yapay zeka ve blok zinciri, videolara kurcalanması olanaksız dijital bir parmak izi kaydedebilir. Bu işlem, belgelerin filigranla korunmasına benzese de videolarla ilgili zorluk, farklı codec'lerle kullanılmak üzere videonun sıkıştırılması gerektiğinde karma değerlerinin bu durumdan etkilenmesinin nasıl önüne geçileceğidir.

Deepfake çabalarını engellemenin diğer bir yolu da, yüz algılama yazılımının kullandığı piksel düzenlerini gizlemek için videolara özel olarak tasarlanmış dijital "yapay öğeler" ekleyecek bir program kullanmaktır. Bu yapay öğeler, Deepfake algoritmalarını yavaşlatabilir ve düşük kalitede sonuçlara yol açabilir. Bu da Deepfake çalışmalarının başarılı olma şansını azaltır.

Doğru güvenlik prosedürleri en iyi korunma yoludur

Öte yandan, Deepfake videolarına karşı korunmanın tek yolu teknoloji değildir. Doğru temel güvenlik prosedürleri, Deepfake'e karşı mücadele etme konusunda son derece etkilidir.

Örneğin, her para harcama sürecine otomatik kontrollerin eklenmesi Deepfake ve benzeri dolandırıcılık eylemlerinin büyük bölümünün önüne geçebilir. Şunları da yapabilirsiniz:

  • Çalışanlarınızın ve ailenizin Deepfake faaliyetleri ve ortaya çıkarabileceği zorluklar konusunda bilgilenmelerini sağlayın.
  • Deepfake'in nasıl tespit edileceği konusunda kendinizi ve başkalarını eğitin.
  • Medya okur yazarı olduğunuza ve kaliteli haber kaynaklarını kullandığınıza emin olun.
  • Doğru temel protokolleriniz olsun: "Güven ama doğrula". Sesli mesaj ve videolara şüpheci yaklaşmak asla aldatılmayacağınızı garanti etmez ancak pek çok tuzaktan kurtulmanızı sağlamaya yardımcı olur.

Korsanların ev ve iş ağlarını kırma çabalarında Deepfake kullanmaya başlaması durumunda en iyi temel siber güvenlik uygulamasının riski en aza indirme konusunda hayati bir rol oynayacağını unutmayın:

  • Düzenli yedeklemeler, verilerinizi fidye yazılımlarına karşı korur ve zarar gören verilerinizi yerine koyabilmenizi sağlar.
  • Farklı hesaplar için birbirinden farklı, güçlü parolaların kullanılması tek bir ağ veya hizmete zorla girilmesi durumunda diğerlerinin de tehlikeye düşmemesini sağlar. Birisi zorla Facebook hesabınıza girerse diğer hesaplarınıza da ulaşmasını istemezsiniz.
  • Ev ağınızı, dizüstü bilgisayarınızı ve akıllı telefonunuzu siber tehditlere karşı korumak için Kaspersky'nin Total Security ürünü gibi iyi bir güvenlik paketi kullanın. Bu paket; bir antivirüs yazılımı, Wi-Fi bağlantılarınızın ele geçirilmesini önleyecek bir VPN ve web kameralarınız için de koruma sunar.

Deepfake'in geleceği nedir?

Deepfake gelişmeye devam ediyor. İki yıl önce hareketlerin hantallığından ve taklit edilen kişinin asla gözünü kırpmamasından Deepfake videolarını tespit etmek gerçekten çok kolaydı. Ancak sahte videoların en son nesli gelişti ve uyum sağladı.

Şu anda 15.000'i aşkın Deepfake videosu olduğu tahmin ediliyor. Bunların bir kısmı eğlence amaçlıyken diğerleri fikirlerinizi manipüle etmeyi amaçlıyor. Ancak artık yeni bir Deepfake video veya ses kaydı oluşturmanın yalnızca bir veya iki gün alması nedeniyle bu sayı çok hızlı biçimde artabilir.

İlgili bağlantılar

Ünlülere Yönelik Büyük Saldırılar ve Bunların Size Etkisi

Web Kamerasını Uzaktan Ele Geçirme: Web Kameranız Sizi Gözetleyebilir mi?

Deepfake üretimlerin artışı siber güvenliğin geleceği için ne ifade ediyor?

Sahte Videolar ve Deepfake - Kullanıcılar kendilerini nasıl koruyabilir?

Korsanlar uzun süredir bir politikacının yüzünü bir porno yıldızının vücuduna Photoshop programı yardımıyla yerleştirmenin ötesine geçmiş durumda. Şu anda korsanlar, Deepfake videolar sayesinde, Hollywood filmlerinde kullanılana benzer bir teknolojiden yararlanarak, sonradan itibarlarına zarar vermek ve hatta onlara şantaj yapmak için kullanılabilecek kelimeleri kurbanlarının ağzına yerleştirebiliyor.
Kaspersky Logo