Apa yang berlaku?
Ciptaan AI-Tech menaikkan bendera merah dalam semua bidang, termasuk kewartawanan, dan media sintetik memburukkan lagi keadaan. Panduan ini berpusat pada definisi media sintetik, teknik, dan yang paling mengejutkan, bendera merah kepada Kewartawanan.
Mengapa ia penting:
Pelbagai bentuk data yang membentuk kandungan berita berada di ambang pendua, kerana media sintetik – algoritma yang boleh memanipulasi teks, imej dan audiovisual – kini tersedia kepada mereka yang mencarinya.
Dengan model berasaskan AI ini, 'ada kemungkinan untuk mencipta' muka dan tempat yang tidak wujud malah mencipta avatar suara digital yang meniru pertuturan manusia.'( Aldana Vales 2019)
Bayangkan dunia, di mana agak sukar untuk membezakan antara berita palsu dan benar, kerana penyebar berita palsu boleh mengubah 'bukti' untuk disesuaikan dengan agenda mereka. Contohnya; tiada siapa yang akan berhenti mempercayai bahawa Perang Dunia III telah bermula, jika video Trump, Putin, dan Kim mengisytiharkan perang diedarkan secara global dalam talian. Walaupun berita sedemikian mungkin disangkal oleh kerajaan yang terlibat, panik psikologi dan ekonomi yang akan ditimbulkannya mungkin lebih besar daripada kesan peluru berpandu.
Menggali Lebih Dalam
Media sintetik boleh dicipta melalui tiga bentuk kecerdasan buatan generatif, iaitu; Rangkaian Adversarial Generatif (GAN), Autoenkoder Variasi dan Rangkaian Neural Berulang. GAI yang disebutkan di atas digunakan untuk penjanaan foto, video dan teks masing-masing. Penjanaan perkataan digunakan kerana kebanyakan kandungan media yang dicipta dengan algoritma ini tidak wujud; bagaimanapun, media sintetik juga boleh digunakan untuk pendua.
Menurut Aldana Vales, 'Rangkaian Adversarial Generatif menggunakan dua rangkaian saraf (rangkaian neural ialah sistem pengkomputeran yang boleh meramal dan memodelkan hubungan dan corak yang kompleks) yang bersaing antara satu sama lain.'
Rangkaian pertama dan kedua bertindak sebagai penjana dan diskriminator secara individu. Diskriminator menyelia penjana, memastikan tiada batu yang tertinggal. Selepas beberapa semakan 'ke sana ke mari' oleh duo, kandungan yang dihasilkan akan menyerupai yang asal.
Tidak seperti Generative Adversarial Networks, rangkaian neural dalam Variational Autoencoders dipanggil pengekod dan penyahkod, kerana teknik ini melibatkan pemampatan dan pembinaan semula kandungan video. 'Penyahkod termasuk pemodelan kebarangkalian yang mengenal pasti kemungkinan perbezaan antara kedua-duanya supaya ia boleh membina semula elemen yang sebaliknya akan hilang melalui proses pengekodan-penyahkodan.' (Aldana Vales 2019)
Rangkaian saraf berulang berfungsi dengan 'mengiktiraf struktur pada set teks yang besar'. Ini ialah kaedah yang digunakan dalam apk telefon autocorrect teks.
Teknik-teknik ini digunakan dalam pelbagai projek seperti; GauGAN, Face2Face dan GPT-2. Aplikasi terbaru media Sintetik boleh didapati dalam Siri atau Alexa. Pembantu maya ini kini mempunyai keupayaan untuk 'mengubah teks menjadi audio dan meniru pertuturan manusia'.
Dalam artikel 2017, bertajuk 'AI-Assisted porn is here and we're all fucked', Vice mendedahkan edaran video lucah palsu, yang tidak menjadi masalah kerana kebanyakan plot yang digambarkan dalam filem lucah adalah palsu (LoL); kecuali pelakon itu mempunyai wajah pelakon bukan lucah popular, Gal Gadot (Wonder woman). Selain itu, pada 2018, 'video yang menunjukkan Presiden Barack Obama bercakap tentang risiko video yang dimanipulasi' telah diedarkan di Buzzfeed. Perkara yang pelik tentang video ini ialah subjek Dijana AI mempunyai wajah Obama dan suara Jordan Peele, terima kasih kepada media Sintetik.
Kandungan daripada rakan kongsi kami
Terdapat kempen berterusan terhadap potensi bahaya media Sintetik terhadap kesahihan berita; walau bagaimanapun, 'Selain melaporkan…bilik berita memfokuskan pada pengesanan media sintetik dan maklumat pengesahan. The Wall Street Journal, misalnya, mencipta dan jawatankuasa bilik berita untuk mengesan deepfakes. The New York Times baru-baru ini mengumumkan bahawa sedang meneroka sistem berasaskan blokchain untuk memerangi maklumat salah dalam talian.' (Aldana Vales 2019)
Garis bawah
Media sintetik boleh membantu agensi berita memecahkan halangan bahasa dengan lancar. Juga, ia boleh menggalakkan peredaran berita palsu. Walaupun adalah mustahil untuk menghentikan syarikat teknologi gergasi daripada menyelami penyelidikan AI-Tech, wartawan boleh belajar bagaimana untuk mengawal kerosakan yang ditimbulkan oleh media sintetik.