Deepfake’lerin etkisi nasıl azaltılır

Deepfake’ler gitgide yaygınlaşırken ve daha ikna edici hale gelirken işinizi nasıl koruyabilirsiniz?

Deepfake’ler, yapay zeka alanındaki son gelişmelerin talihsiz bir ürünü. Makine öğrenimi algoritmaları tarafından üretilen sahte medya son yıllarda çok fazla ilgi görüyor. Alyssa Miller’ın 2020 RSA Konferansı’ndaki Gerçeğimizi Kaybetme başlıklı konuşması, neden artık deepfake’i bir tehdit olarak görmenin zamanı geldiğini (seçim yılını bir kenara bıraksak bile) ve işletmenizin bu şekilde saldırıya uğraması durumunda hasarı azaltmak için neler yapabileceği hakkında bazı bilgiler veriyor.

Deepfake’ler nasıl yapılıyor

Deepfake oluşturmaya yönelik en yaygın yaklaşım, GAN adı verilen bir sistem veya üretken çekişmeli ağ kullanmaktır. GAN’lar birbirleriyle rekabet eden iki derin nöral ağdan oluşur. Hazırlamak için her iki ağ da gerçek görüntülerle eğitilir. Ardından çekişmeli kısım başlar; bir ağ görüntü üretir (bu nedenle üretici olarak adlandırılır), diğeri ise görüntünün orijinal veya sahte olup olmadığını belirlemeye çalışır (ikinci ağa ayrımcı denir).

Bunun sonucunda üretici ağ, sonuçtan faydalanarak öğrenir. Bu sırada ayrımcı ağ ise performansını nasıl artıracağını öğrenir. Her döngüde, her iki ağ da gitgide iyileşir.

Bir milyon eğitim döngüsünden sonrasını düşünün: Üretken nöral ağ, eşit derecede gelişmiş bir nöral ağın gerçek olandan ayırt edemediği sahte görüntüler oluşturmayı öğrenir.

Bu yöntem aslında birçok uygulama için kullanışlıdır; hazırlık verilerine bağlı olarak, üretici ağ belirli türden görüntüler üretmeyi öğrenir.

Tabii ki, söz konusu şey deepfake’ler olduğunda, algoritma belirli kişilerin gerçek fotoğrafları üzerinde eğitilir ve bir videoya entegre edilmeye hazır olan kişinin sonsuz sayıda ikna edici (ancak sahte) fotoğraf oluşturabilen bir ağa yol açar. Benzer yöntemler sahte ses de üretebilir; dolandırıcılar büyük olasılıkla deepfake ses de kullanıyor.

İkna edici deepfake’ler nasıl meydana çıktı

İlk deepfake videoları gülünç görünüyordu; ancak teknoloji bu noktada medyanın korkutucu bir şekilde ikna edici olabilmesi için yeterince gelişti. 2018’deki korkutucu derecede ikna edici deepfake’lerin en dikkat çeken örneklerinden biri, Barack Obama’nın deepfake’lerden bahsettiği (artı şimdiki ABD başkanına yönelik hakaretleri içeren) bir görüntüydü. 2019’un ortalarında ise sahte Mark Zuckerberg’ün kısa bir videode mevcut gizlilik durumu hakkında aşırı derecede dürüst bir konuşmasını izledik.

Teknolojinin ne kadar iyi olduğunu anlamak için aşağıdaki videoyu izlemeniz yeterli. Empresyonist Jim Meskimen, bu videoyu deepfake sanatçısı Sham00k ile birlikte yarattı. Meskimen seslerden sorumluydu ve Sham00k ise yaklaşık 20 ünlünün yüzünü videoya deepfake yazılımı kullanarak uyguladı. Sonuç gerçekten büyüleyiciydi.

Sham00k’un sahne arkası videosunun açıklamasında söylediği gibi, “videonun tamamını oluşturmak, 250 saatin üzerinde çalışma, 1200 saatlik çekim, 300.000 görüntü ve 1 terabayta yakın veri” aldı. Bununla birlikte, böyle bir video yapmak küçük bir başarı değil. Ancak bu tür ikna edici dezenformasyonların, potansiyel olarak piyasalar üzerinde ya da örneğin seçimler üzerinde büyük etkileri olabilir; bu da sürecin korkutucu derecede kolay ve ucuz görünmesini sağlıyor.

Bu nedenle California, yukarıda bahsedilen videonun yayınlanmasıyla birlikte, seçim sezonunda siyasi deepfake videolarını yasakladı. Ancak, sorunlar devam ediyor. Yeni başlayanlar için, genelde deepfake videoları, politik hiciv gibi bir ifade biçimi. California yasağı, ifade özgürlüğüne tam olarak saygı duymuyor.

İkinci sorun ise hem teknik hem de pratik: Deepfake bir videoyu gerçek bir videodan tam olarak nasıl ayırt edebilirsiniz?

Deepfake’ler nasıl tespit edilir

Makine öğrenimi tüm dünyadaki bilim insanları arasında oldukça revaçta olan bir konu; deepfake problemi, birçok bilim insanını bu konuya eğilmeye teşvik edecek kadar ilginç ve zor görünüyor. Bu nedenle çok sayıda araştırma projesi, deepfake tespitinde görüntü analizinin nasıl kullanılacağına odaklanıyor.

Örneğin, Haziran 2018’de yayınlanan bir makale, göz kırpma analizinin, deepfake videoların saptanmasına nasıl yardımcı olabileceğini açıklıyor. Fikir, belirli bir kişinin genelde gözlerini kırptığı yeterli sayıda fotoğraf olmamasına dayanıyor; dolayısıyla nöral ağların eğitimnde bu nokta eksik kalıyor. Makalenin yayınlandığı sırada deepfake’lerdeki insanlar gerçekten de çok az göz kırpıyordu. Bu tutarsızlığı tespit etmek, insanlar için zor olsa da, bilgisayar analizleri yardımcı olabiliyordu.

Kasım 2018’de sunulan iki makale, yüz buruşturma yapmacıklıklarını ve tutarsız kafa pozlarını dikkate almayı önerdi. 2019’da bir diğeri ise, bireyin konuşma düzeni için tipik olan yüz ifadelerini ve hareketlerini analiz eden karmaşık bir teknik açıkladı.

Bununla birlikte, Miller’ın da belirttiği gibi, bu yöntemlerin uzun vadede başarılı olma olasılığı düşük. Bu tarz araştırmaların gerçekte yaptığı şey, deepfake içerik oluşturucularına, ayrımcı sinir ağlarını geliştirmelerine yardımcı olarak geri bildirim sağlamak ve bunun sonucunda da üretken ağların daha iyi eğitilmesine ve deepfake’leri daha da geliştirmeye yardımcı olmak.

Deepfake tehditlerini azaltmak için kurumsal iletişimi kullanma

Yukarıda bahsedilen hususlar göz önüne alındığında, deepfake sorununa tamamen teknolojiye dayalı bir çözüm işe yaramayacak gibi gözüküyor. Ancak başka seçenekler de var. Özellikle, etkili iletişimle tehdidi azaltmanız mümkün. Şirketinizle ilgili bilgileri izlemeniz ve bir dezenformasyon salgınıyla karşı karşıya kaldığınız takdirde anlatıyı kontrol etmeye hazır olmanız gerekiyor.

Aşağıdaki öneriler, Alyssa Miller’ın şirketinizi deepfake tehdidine karşı hazırlamaya yönelik önerilerini özetliyor (bu arada, aynı yöntemler diğer PR sorunlarıyla başa çıkmak için de yararlı olabilir):

  • Şirket iletişimi için kanalları en aza indirin;
  • Tutarlı bilgi dağıtımı sağlayın;
  • Bir dezenformasyona müdahale planı geliştirin (bunları güvenlik vakaları olarak ele alın);
  • Merkezi bir izleme ve raporlama birimi organize edin;
  • Sorumlu mevzuat ve özel sektör bilgi doğrulamasını teşvik edin;
  • Saptama ve önleme önlemlerinin geliştirilmesini takip edin.
İpuçları