Mükemmel sahte videolar yapay zeka tarafından tanınacak
Mükemmel sahte videolar yapay zeka tarafından tanınacak

Video: Mükemmel sahte videolar yapay zeka tarafından tanınacak

Video: Mükemmel sahte videolar yapay zeka tarafından tanınacak
Video: 2 Dakikada Bilim | Uzun Versiyon - YouTube 2024, Nisan
Anonim
Litvinenko'nun zehirlenmesiyle ilgili operanın prömiyeri İngiltere'de başlıyor
Litvinenko'nun zehirlenmesiyle ilgili operanın prömiyeri İngiltere'de başlıyor

Bir yıl önce, Stanford'un Manish Agrawala'sı, video editörlerinin konuşmacıların sözlerini neredeyse fark edilmeden değiştirmesine izin veren dudak senkronizasyon teknolojisinin geliştirilmesine yardımcı oldu. Araç, bir kişinin hiç konuşmadığı kelimeleri cümlenin ortasında bile kolayca ekleyebilir veya söylediği kelimeleri silebilir. Her şey çıplak gözle ve hatta birçok bilgisayar sistemine gerçekçi görünecek.

Bu araç, tüm sahneleri yeniden çekmeden hataları düzeltmeyi çok daha kolay hale getirdi ve ayrıca TV şovlarını veya filmleri farklı yerlerdeki farklı izleyiciler için uyarladı. Ancak bu teknoloji, gerçeği çarpıtma niyetiyle, bulunması zor sahte videolar için rahatsız edici yeni fırsatlar da yarattı. Örneğin, yakın tarihli bir Cumhuriyet videosu, Joe Biden ile röportaj için daha kaba bir teknik kullandı.

Bu yaz, Agrawala ve Stanford ve UC Berkeley'deki meslektaşları, dudak senkronizasyonu teknolojisine yapay zeka tabanlı bir yaklaşım ortaya koydu. Yeni program, insanların sesleri ile ağızlarının şekli arasındaki en küçük farklılıkları tanıyarak, sahtelerin yüzde 80'inden fazlasını doğru bir şekilde tespit ediyor.

Ancak Stanford Medya İnovasyonu Enstitüsü müdürü ve aynı zamanda Stanford İnsan Merkezli Yapay Zeka Enstitüsü'ne bağlı Forest Baskett'te bilgisayar bilimi profesörü olan Agrawala, derin sahtekarlıklara uzun vadeli teknik bir çözüm olmadığı konusunda uyarıyor.

Sahteler nasıl çalışır?

Video manipülasyonunun meşru nedenleri vardır. Örneğin, kurgusal bir TV şovu, film veya reklam filmi çeken herkes, hataları düzeltmek veya senaryoları özelleştirmek için dijital araçları kullanarak zamandan ve paradan tasarruf edebilir.

Sorun, bu araçlar kasıtlı olarak yanlış bilgi yaymak için kullanıldığında ortaya çıkar. Ve tekniklerin çoğu, ortalama bir izleyici tarafından görülmez.

Birçok derin sahte video, bir kişinin yüzünü başka bir kişinin videosuna tam anlamıyla bindiren yüz takaslarına dayanır. Ancak yüz değiştirici araçlar zorlayıcı olsa da, nispeten kabadırlar ve genellikle bir bilgisayarın algılayabileceği dijital veya görsel eserler bırakırlar.

Öte yandan, dudak senkronizasyon teknolojileri daha az görünürdür ve bu nedenle tespit edilmesi daha zordur. Görüntünün çok daha küçük bir bölümünü manipüle ederler ve daha sonra, bir kişinin belirli sözcükleri söylerse ağzının gerçekte nasıl hareket edeceğine tam olarak uyan dudak hareketlerini sentezlerler. Agrawal'a göre, bir kişinin imajından ve sesinden yeterli sayıda örnek verildiğinde, sahte bir yapımcı bir kişiye her şeyi “söyletebilir”.

Sahte algılama

Bu tür teknolojinin etik olmayan kullanımı konusunda endişe duyan Agrawala, bir tespit aracı geliştirmek için Stanford'da doktora öğrencisi olan Ohad Freed ile çalıştı; California Üniversitesi, Berkeley Bilgi Okulu'nda profesör olan Hani Farid; ve Berkeley'de doktora öğrencisi olan Shruti Agarwal.

İlk başta, araştırmacılar, gözlemcilerin video görüntüleri üzerinde çalıştığı tamamen manuel bir teknikle deneyler yaptı. İyi çalıştı, ancak pratikte emek yoğun ve zaman alıcıydı.

Araştırmacılar daha sonra, eski Başkan Barack Obama ile video eğitiminden sonra aynı analizi yapmak için çok daha hızlı olacak yapay zeka tabanlı bir sinir ağını test etti. Sinir ağı, Obama'nın kendi dudak senkronizasyonunun yüzde 90'ından fazlasını tespit etti, ancak diğer konuşmacıların doğruluğu yüzde 81'e düştü.

Gerçeğin gerçek bir testi

Araştırmacılar, yaklaşımlarının kedi ve fare oyununun sadece bir parçası olduğunu söylüyor. Derin sahtecilik teknikleri geliştikçe, daha da az anahtar bırakacaklar.

Nihayetinde, diyor Agrawala, asıl sorun derinden sahte videolarla mücadele etmek değil, dezenformasyonla mücadele etmek. Aslında, yanlış bilgilerin çoğunun, insanların gerçekte söylediklerinin anlamını çarpıtmaktan kaynaklandığını belirtiyor.

“Yanlış bilgiyi azaltmak için medya okuryazarlığını iyileştirmemiz ve hesap verebilirlik sistemleri geliştirmemiz gerekiyor” diyor. "Bu, kasıtlı olarak yanlış bilgi üretimini ve bunları ihlal etmenin sonuçlarını yasaklayan yasalar ve ortaya çıkan zararı ortadan kaldıracak mekanizmalar anlamına gelebilir."

Önerilen: