Günümüz dünyası, deepfake içeriklerin gerçek etkisine hazır mı?
Deepfake, daha kolay ve daha hızlı yaratabilen bir teknoloji haline gelirken yeni bir tür siber suçun da kapılarını aralıyor. Birçok kişi tarafından nispeten zararsız ve hatta eğlenceli olarak görülse de bu çılgınlık ilerleyen zamanlarda zararlı bir hal alarak politik skandalların, siber suçların ve hatta sadece tanınmış kişilerden ziyade herhangi birini içeren sahte videoların yer alacağı hayal dahi edilemeyecek durumların tam merkezinde yerini alabilir.
Deepfake, gerçek bir insanın görünümünü ve sesini kopyalamak için sıfırdan ya da mevcut bir video kullanılarak tasarlanan, sahte içerik oluşturma amaçlı, yapay zekaya dayalı insan görüntüsü sentezleme tekniğidir. Bu gibi videoların gerçekçiliği inanılmaz düzeyde olabilir. Şu anda söz konusu videoların birçoğunda şoke edici ya da gerçek olmayan bir şeyler söyleyen ünlüler ve tanınmış kişiler yer alıyor.
Yeni bir araştırma, yaratılan deepfake video sayısında büyük bir artış olduğunu ve çevrimiçi ortamdaki bu tür videoların sayısının sadece son dokuz ayda neredeyse iki kat arttığını gösteriyor. Deepfake içeriklerin kalitesi de büyük bir hızla artıyor. Bill Hader'ın kolayca Tom Cruise'dan Seth Rogan'a dönüşmesini gösteren bu video, deepfake teknolojili videoların hem görünüm hem de ses anlamında ne kadar gerçekçi olabileceğini gösteren örneklerden sadece biri. YouTube'da "deepfake" terimi ile arama yaparsanız bizi nelerin beklediği konusunda buz dağının sadece görünen kısmına baktığımızı fark edeceksiniz.
Deepfake teknolojisi kullanılarak hazırlanan bir sesin, bir CEO'nun dolandırılarak büyük meblağlarda paranın çalındığı bir olayda, deepfake teknolojisinin sahtecilik amaçlı kullanıldığına şahit olmuştuk. Adı belirtilmeyen bir İngiliz şirketinin CEO'sunun telefonda patronu ile konuştuğunu zannettiğine ve bu nedenle bir Macar tedarikçinin banka hesabına hemen 220.000 Euro (kabaca 244.000 Amerikan doları) göndermesi emrine uyduğuna inanılıyor. Sadece telefonda istekte bulunarak insanları etkilemek bu kadar kolaysa bu tehdidi ortadan kaldırmak için kesinlikle daha iyi güvenliğe ihtiyacımız var demektir.
Çıplak gözü yanıltma
Uygulamaların giyinik haldeki bir insanı saniyeler içerisinde üstsüz hale getiren DeepNude uygulamalarına da şahit olduk. Bu uygulama neyse ki artık çevrimdışı hale getirildi. Peki, intikam amacıyla başka bir biçimde geri döner ve ikna edici ölçüde gerçek görünen videolar yaratabilir duruma gelirse ne olacak?
Özellikle pornografi sektöründe, bu videoların yapımının kârlı bir iş haline geldiğine dair kanıtlar da mevcuttur. BBC, “Bu videoların %96'sı, benzerleri gerek bilgileri dahilinde gerek izinleri olmadan cinsel içerikli videolarda oynatılan kadın ünlülere ait.” açıklamasında bulunuyor.
Kısa bir süre önce California'da yürürlüğe giren bir yasa ile yasa koyucular gözlerini kararttı ve kişinin izni olmadan pornografik deepfake görüntülerini yaratmayı, cezası 150.000 Amerikan dolarına varan yasa dışı bir eylem haline getirdi. Ama büyük ihtimalle, bazı insanların video üretmelerini önlemeye hiçbir yasa yetmeyecek.
Konuyu aydınlatmak adına, The Economist'te yayımlanan bir makalede, yeterince ikna edici bir deepfake içeriği oluşturmak için (kısa bir klip olsa bile) ciddi miktarda video görüntülerine ve/veya ses kayıtlarına ihtiyacınız olduğundan bahsediliyor. Umutsuzca kendi deepfake videomu yaratmak istedim ama ne yazık ki elimde kendime ait saatlerce kayıt olmadığı için kendi yüzümün yer aldığı bir deepfake video yapamadım.
Bununla birlikte, çok uzak olmayan bir gelecekte, birkaç kısa Instagram hikayesini alıp kişilerin çevrimiçi takipçilerine ya da bu insanları tanıyan kişilerin çoğuna inandırıcı gelecek bir deepfake oluşturmak mümkün olabilir. Bize daha yakın insanların (patronumuz, meslektaşlarımız, akranlarımız, ailemiz) hayal dahi edemeyeceğimiz videolarla ortaya çıkmalarına şahit olabiliriz. Bunlara ek olarak, deepfake içerikler okullarda, iş yerinde ve başka alanlarda zorbalık için de kullanılabilir.
Dahası, siber suçluların kurbanlarına ait kimlik bilgilerini çalmak için bu gibi bir teknolojiyi kullanacakları kesin. Her geçen gün maliyeti düşen deepfake içeriklerin sadece insan gözüyle algılanması neredeyse imkansız hale geliyor. Sonuç olarak, tüm bu dolandırıcılıklar gerçek ile kurgu arasındaki suları kolayca bulandırabilir ve bu da, duyularımız inanmamızı söylese bile, hiçbir şeye güvenmez hale gelmemize neden olabilir.
Gerçek tehdidin önünü kesme
Peki bu tehdide karşı hazırlanmak için neler yapılabilir? İlk olarak, insanlara deepfake içeriklerin var olduklarını göstermeli, onlara bu içeriklerin nasıl çalıştıkları ve hangi hasarlara yol açabilecekleri konusunda eğitmeliyiz. Hepimizin gördüğümüz en gerçekçi videolara bile tamamen sahte olabilirmiş gibi davranmayı öğrenmemiz gerekiyor.
İkinci olarak, deepfake içerikleri daha iyi algılayacak teknolojiler geliştirilmesi gerekiyor. Bu konuda zaten devam eden bir araştırma var ama henüz olması gereken noktanın çok uzağında. Makine öğreniminin bizzat bunları yaratma sürecinin tam merkezinde yer almasına karşın, sadece insan gözlerine güvenmeden bunları algılayabilen bir panzehir görevi görecek bir yöntemin olması gerekiyor.
Son olaraksa, sosyal medya platformlarının, deepfake içeriklerin etkisi nedeniyle çok büyük bir potansiyel tehdit olduğunu fark etmeleri gerekiyor. Zira sosyal medyada şaşırtıcı bir video paylaştığınızda sonuçlar çok hızlı yayılıyor ve bunun toplum üzerinde zarar verici bir etkisi oluyor.
Beni yanlış anlamayın, teknolojinin gelişmesini ve yayılmasını izlemek bana muazzam bir keyif veriyor ama özellikle de makine öğreniminin daha önce hiç olmadığı kadar hızlı olgunlaştığı bir dönemde, teknolojinin bizi bazen nasıl zararlı bir şekilde etkileyebileceğinin farkında olmamız gerekiyor. Aksi takdirde, çok kısa süre içerisinde, deepfake içeriklerin geniş kapsamlı sahte kurallara dönüştüğünü göreceğiz.