BBC gizemli gerilim filmi The Capture’ın ikinci sezonunda , derin sahtekarlıklar demokrasinin geleceğini ve Birleşik Krallık ulusal güvenliğini tehdit ediyor. Günümüz Londra’sında geçen bir distopyada, bilgisayar korsanları, politikacıların kariyerlerini yok etmek için bu son derece gerçekçi sahte görüntüleri ve insanların videolarını canlı haber yayınlarına eklemek için AI kullanıyor.

Deepfakes iyilik için kullanılıyor - işte nasıl

Ancak ekibimin araştırması, gerçekte ikna edici derin sahtekarlıklar yaratmanın ne kadar zor olduğunu gösterdi. Aslında, teknoloji ve yaratıcı profesyoneller, insanların politikacıların ve ünlülerin sahte videolarını tespit etmelerine yardımcı olacak çözümler üzerinde işbirliği yapmaya başladı. Dolandırıcılardan bir adım önde olmak için iyi bir şansımız var.

Araştırma projem Virtual Maggie’de , yeni bir drama için eski İngiltere başbakanı Margaret Thatcher’ı dijital olarak diriltmek için deepfake kullanmaya çalıştım. Aylarca çalıştıktan sonra, yayın için kabul edilebilir sanal bir Maggie oluşturamadık.

Yüksek tanımlı ikna edici derin sahteler üretmek, çıktıdaki aksaklıkları düzeltmek için en üst düzeyde donanım, çok fazla bilgisayar zamanı ve insan müdahalesi gerektirir. Bu, Ben Chanan’ın dramasının yakın gelecekte oynaması muhtemel bir senaryo olmadığını bilmeme rağmen The Capture’dan zevk almamı engellemedi. Her iyi distopya gibi, bir gün mümkün olabilecek bir şeyin tohumlarına sahipti.

Deepfake’lerin 2017’de başladığından beri kullanımı şok edici oldu. İnternetteki derin sahtekarlıkların çoğu, kadınlara yönelik saldırılar, yüz görüntülerini rızası olmadan alıp pornografik içeriğe yerleştirmek. Deepfakes uzmanı Henry Ajder , internette bulunan deepfake’lerin %96’sının pornografik olduğunu ve bunların %100’ünün kadınların video görüntüleri olduğunu buldu.

The Capture’ın öncülü gerçeklere dayanmaktadır. Deepfake’ler demokrasiyi tehdit ediyor. 2019 İngiltere genel seçimlerinde sanatçı Bill Posters , Boris Johnson’ın Jeremy Corbyn’e oy vermemiz gerektiğini söyleyen kışkırtıcı bir videosunu yayınladı.

Posterlerdeki derin sahtekarlık, Ukrayna Devlet Başkanı Volodymyr Zelenskyy’nin askerlerinden teslim olmalarını istediğini gösteren Rus derin sahtekarlığından çok daha inandırıcıydı. Yine de Kremlin’den farklı olarak İngiliz sanatçı, “Boris”in izleyicileri derin sahtekarlıklarla ilgili bir web sitesine yönlendirmesini sağlayarak, yapay zekasının Boris’in gerçek olmadığını açıkça ortaya koydu. Sahte siyasi propagandaya karşı savunmasızlığımızı vurgulamayı amaçladı.

Deepfake’ler henüz tipik olarak insanları kandıracak kadar ikna edici olmayabilir. Ancak yaratıcı çalışma, genellikle yaratıcı ve izleyiciler arasında inançsızlıklarını askıya almak için yazılı olmayan bir anlaşmayı içerir.

Yolda bir çatal

Deepfakes tehdidi, teknoloji çözümleri için yoğun bir arayışa yol açtı. Bir şirketler koalisyonu, “bize sunulan medyadaki gerçeği değerlendirmenin bir yolunu” sağlamak için İçerik Doğruluğu Girişimi’ni (CAI) oluşturdu.

Bu umut verici bir yaklaşım. CAI işbirlikçileri ve teknoloji şirketleri Truepic ve Qualcomm, doğrulanabilmesi için bir görüntünün geçmişini meta verilerine yerleştiren bir sistem oluşturdu. ABD’li fotoğrafçı Sara Naomi Lewkowicz , fotoğraflarına kaynak bilgileri yerleştiren CAI ile deneysel bir projeyi tamamladı .

Ancak yaratıcı ve teknoloji uzmanları, gelişmekte olan derin sahte teknolojisini mutlaka engellemek istemiyorlar. Massachusetts Teknoloji Enstitüsü Medya Laboratuvarı’ndaki araştırmacılar, derin sahtekarlıkları iyi bir şekilde kullanmanın yollarını beyin fırtınası yapıyorlar. Bunların bir kısmı sağlık ve tedavi alanındadır.

Araştırma mühendisleri Kate Glazko ve Yiwei Zheng , afantazi, yani zihninizde zihinsel imgeler yaratamama sorunu yaşayan insanlara yardım etmek için deepfakes kullanıyor . Geliştirme aşamasında olan ayrılık simülatörü , “prova yoluyla zor konuşma kaygısını hafifletmek” için deepfakes kullanmayı amaçlıyor.

Deepfake’lerin en derin olumlu kullanımları, siyasi değişim kampanyalarını içerir. 2018’de Florida’da bir lisede vurularak öldürülen Joaquin Oliver’ın ebeveynleri, silah kontrolü çağrısında bulunan güçlü bir videoda onu geri getirmek için teknolojiyi kullandı.

Deepfake’lerin kültürel uygulamaları da vardır. Florida’daki Dali Müzesi’nde, derin sahte bir Salvador Dali, ziyaretçileri karşılayarak onlara kendisinden ve sanatından bahseder. Araştırmacı Mihaela Mihailova , bunun ziyaretçilere “bir yakınlık, yakınlık ve kişiselleştirme duygusu” verdiğini söylüyor. Deepfake Dali, size onunla bir selfie çekme şansı bile sunuyor.

Deepfakes ve AI tarafından oluşturulan karakterler eğitici olabilir. Şanghay’da karantina sırasında Doçent Jiang Fei , öğrencilerinin çevrimiçi dersler sırasında dikkatlerinin düştüğünü fark etti. Daha iyi odaklanmalarına yardımcı olmak için öğretisini öne çıkarmak için kendisinin bir anime versiyonunu kullandı. Jiang Fei şunları söyledi: “Öğrencilerin sınıftaki coşkusu ve ev ödevlerinin kalitesinin iyileştirilmesi bariz ilerleme kaydetti.”

Kanal Dört, 2020 alternatif Noel mesajını, videoda gördüğümüz her şeye güvenmeme konusunda ciddi bir noktaya değinirken, derin sahte bir kraliçeyle izleyicileri eğlendirmek için kullandı.

İngiltere’de, Reading Üniversitesi tarafından barındırılan ve Alan Turing Enstitüsü tarafından finanse edilen, büyüyen bir film yapımcıları, araştırmacılar ve AI teknoloji uzmanları ağı, yaratıcı ekran üretiminde derin sahtekarlıkların pozitif potansiyelinden yararlanmaya çalışıyor. Film yapımcısı Benjamin Field bir atölye çalışması sırasında gruba , çocukların televizyon kahramanının sıkıntılı hayatı hakkında bir belgesel olan Gerry Anderson için Thunderbirds’ü yaratan animatörü “diriltmek” için deepfakeleri nasıl kullandığını anlattı : A Life Uncharted .

Field ve yardımcı yapımcısı, Anderson’ın en küçük oğlu Jamie, eski ses kasetlerini keşfetti ve ünlü kuklacı ile “filme alınmış” bir röportaj oluşturmak için derin sahteler kullandı. Field, yayıncılıkta deepfake kullanmanın olumlu yollarını bulmaya kararlı küçük bir yaratıcı grup arasında yer alıyor.

Deepfakes ve AI karakterleri geleceğimizin bir parçası ve yukarıdaki örnekler bunun en azından kısmen olumlu olabileceğini gösteriyor. Ancak görüntüleri çalınan veya kötüye kullanılan kişileri korumak için yasalara ve film yapımcıları tarafından derin sahtekarlıkların nasıl kullanıldığına dair etik yönergelere de ihtiyacımız var. Sorumlu yapımcılar zaten AI konusunda bir ortaklık kurdular ve The Capture’da gördüğümüz geleceğin felaket vizyonunu önlemeye yardımcı olabilecek bir davranış kuralları taslağı hazırladılar.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir