İşletmeler, teknoloji ile sentetik veri setleri üretebilir. Yayında ve reklam için kullanışlıdır. Ancak, mahremiyeti ve siyasi sonuçları tehlikeli olabilir. Connecticut merkezli bir internet haber sitesi olan Daily Voice’un yakın tarihli bir çevrimiçi reklamı, haber spikerleri için çağrıda bulundu. Reklam normal görünüyordu, ancak belirli bir satır için: “Sürekli olarak geleceğe yönelik hikayeler için video klipler oluşturmak için sizin benzerliğinizle yakalanan videoyu kullanacağız.” Haber sitesinin kullanmayı vaat ettiği şey, deepfakes olarak bilinen yapay zeka teknolojisinin bir çeşidiydi.
Deepfakes, içerik oluşturmak için derin öğrenmeyi sahte veya sentetik veriler veya medya (gerçek dünyadaki olaylar tarafından üretilmeyen görsel veya diğer bilgiler) ile birleştiren bir yapay zeka türüdür . Bazıları derin sahtekarlıkları, işletmelerin makine öğrenimi modellerini eğitmek için kendi avantajlarına kullanabilecekleri sentetik veriler olarak görürken, diğerleri onu siyasi görüşleri ve olayları etkileyebilecek ve yalnızca sahte ve yanıltıcı görüntülerle tüketicilere değil, aynı zamanda tüketicilere zarar verebilecek tehlikeli bir araç olarak görüyor. gerçek verilere olan güveni aşındırarak kuruluşlar.
Kullanışlı bir araç olarak Deepfakes Forrester Research analisti Rowan Curran, şirketlerin derin sahtekarlıklarla kötüyü iyiden ayırması gerektiğini söyledi. Curran, “Bu deepfakes fikrini, bireylerin bir politikacı tarafından çok yararlı ve çok ölçeklenebilir kurumsal [ürünler] için sentetik veri setleri oluşturmak için bu yararlı girişimden [araçlardan] sahte bir konuşma yapmak için kullandıkları bir araç olarak belirsizliği gidermek önemlidir.” Dedi. Kuruluşlar, makine öğrenimi modellerini eğitmek için sentetik veri kümeleri oluşturmak için derin sahte teknolojisini kullanabilir .
Deepfake teknolojisi, makine öğrenimi modellerinin gerçek dünyada olmayan veya gerçek verileri kullanmak için fazla özel olan durumlar üzerinde eğitilebildiği simüle edilmiş ortamlarda faydalı olabilir. Bunlar arasında, Daily Voice gibi haber kaynaklarının farklı dillerde popüler podcast yayıncılarının veya radyo sunucularının seslerini üretebildiği, veri kümelerini simüle etmek veya desteklemek ve yayıncılık gibi sağlık hizmetleri gibi sektörlerdeki uygulamalar yer alıyor. Deepfakes için başka bir uygulama, işletmelerin mesajlarını geniş ölçekte vermelerini sağlıyor. Bu tür bir teknolojiyi geliştiren satıcılardan biri Hour One’dır .
Hour One, şirkete benzerlerini kullanma izni veren kişilerin videolarını oluşturmak için AI kullanır. Satıcı, gerçek insanlara dayanan 100’den fazla karakter veya derin sahte topladı. Müşterilerinden biri olan Alice Receptionist, karakterleri ziyaretçileri karşılayan ve ziyaretçilere bilgi sağlayan sanal resepsiyonistleri yönetmek ve görüntülü veya sesli aramalarla çalışanları ziyaretçilere bağlamak için kullanır. Aldatma ve dolandırıcılık Hour One’ın strateji başkanı Natalie Monbiot, satıcının verilerini ve görüntülerinin benzerlerini dolandırıcılardan ve teknolojiyle başkalarını kandırmak isteyenlerden koruduğunu söyledi. Monbiot, bilgisayar korsanlarının tüketicilerin sosyal medya profillerine ve kuruluşların hassas verilerine erişme uygulamasına atıfta bulunarak, “Dolandırıcılık ve dolandırıcılık ile ilgili her şey sistemik bir sorundur” dedi.
“Sentetik medyanın, aldatma ve dolandırıcılığın başka bir yolu olabileceğini anlıyoruz, ancak dürüst olmak gerekirse, aldatma ve dolandırıcılığın ilk etapta gerçekleşmesi gerekli değil.” Monbiot, tüketicilerin ve işletmelerin sentetik medya ve bu tür teknolojiler olmadan bile dolandırıcılık ve yanıltıcı olabileceğini ve Hour One’ın karakterlerini korumak için yasal belgelere sahip olduğunu söyledi. Ancak, hemen hemen herkesin nispeten yüksek kaliteli sahte görüntüler oluşturmasını sağlayan sentetik medya ve hızlı gelişen derin sahte araçlarla, kötü aktörlerin kamu izleyicilerini siyasi amaçlarla etkilemesi ve şirketlerin reklamları izleyicilerin yapabileceği şekilde artırması kolay. algılamak. Gartner analisti Darin Stewart, “Yanıltıcı reklamcılık, Amerikalı tüketiciler için uzun ve gururlu bir mirasa sahiptir” dedi. “Bu, steroidleri artıracak.” Bu arada, kuruluşlar çevrimiçi derin sahte teknoloji tehdidine karşı koymak için ortaya çıkmaya başladı. Kâr amacı gütmeyen Sosyal Medya Güvenliği Örgütü, Kaliforniya’da derin sahtecilik karşıtı yasalara sponsor oldu.
Önerilen yasa, derin sahtekarlıkları, orijinal videoyu yanlış bir şekilde yeni kaydı gerçek gibi gösterecek şekilde değiştiren kayıtlar olarak tanımlıyor. Yasa, rıza olmadan yaratılan hem cinsel hem de siyasi derin sahtekarlıkları yasaklıyor. Deepfake teknolojisini sağlamak için siyasi amaçlar için verilen rıza, demokratik oylama sürecini değiştirmek için kullanılmaz. Sosyal medya tüketici koruma kuruluşunun CEO’su Marc Berkman, “Buradaki sorunun bir kısmı, tehlikeleri olabilecek yeni teknolojilerin önünde durmak ve toplum olarak bu konuda kötü bir iş çıkardık” dedi. “Ve bu bunun bir örneği. Yani, onun önüne geçmek, gerçekten yerleşmeden önce insanların zarar görmesini engellemek.” Deepfake’ler gibi sentetik medya kullanarak aldatma ve dolandırıcılık sadece tüketicileri ve siyasi şahsiyetleri etkilemekle kalmaz, aynı zamanda işletmeleri de etkiler . Stewart’ın bahsettiği bir örnek, dört kez dolandırılan bir organizasyondur. Dolandırıcılar, sık sık kamuoyu önüne çıkan farklı üst düzey yöneticileri hedef aldı.
Daha sonra bir ses modelini eğitmek için kişinin ses kayıtlarını kullandılar. Sentetik sesle, bir anlaşma için paraya hemen ihtiyaçları olduğunu iddia ederek, büyük miktarda para transferi isteyen daha düşük seviyeli bir çalışana sesli mesaj bıraktılar. Üst düzey yönetici tarafından tanındıkları için memnun olan çalışan, transferi yaptı ve dolandırıcıların eline büyük miktarda para geçti. Stewart, “Artık video derin sahtekarlıkları daha yüksek ve daha kaliteli ve daha ucuz hale geliyor, [bu tür dolandırıcılık] sadece genişleyecek” dedi. Kötüyü uzak tutmak Ancak Stewart, derin sahte teknoloji kullanarak çalmaya veya yanlış yönlendirmeye çalışan kötü aktörlerin vereceği zararı sınırlamanın yolları olduğunu söyledi. Örneğin, bir grup Berkeley Üniversitesi araştırmacısı, bir videonun yüz hareketlerine, tiklere ve ifadelere dayalı bir derin sahte olup olmadığını tespit etmek için eğitilmiş bir AI tespit sistemi oluşturdu.
Ancak tespit araçları, hasar verildikten sonra çalışır ve dolandırıcılar, daha iyi derin sahtekarlıkları eğitmek için bu tespit sistemlerini zaten kullanıyor. Bir teknoloji gözetim zinciri – veya videonun veya görüntünün nereden geldiğini, onu kimin oluşturduğunu ve düzenlemelerin nerede yapıldığını gösteren bir kayıt – derin sahtekarlıkları ortaya çıkarmak için daha iyi bir yaklaşım olabilir. Videolar ve eğitim kuruluşları için sertifikasyon süreci hakkında böyle bir kayda sahip olmak, neyin gerçek neyin gerçek olmadığını belirlemeye yardımcı olabilir. Ancak, Stewart’a göre çoğu kişi ve kuruluş ekstra adımlar atmaya istekli değil. Deepfake’ler için en büyük tehdit bu” dedi. “Pek çok insan bir şeyin manipüle edilip edilmediğini veya sahte olup olmadığını belirlemek için çaba göstermeyecek. Ve toplumumuzun büyük bir kısmı öyle olup olmadığını umursamıyor.”