anong nangyayari?
Ang pag-imbento ng AI-Tech ay nagtataas ng mga pulang bandila sa lahat ng larangan, kabilang ang pamamahayag, at ang sintetikong media ay nagpapalala sa mga bagay. Nakasentro ang gabay na ito sa kahulugan ng sintetikong media, mga diskarte, at ang pinaka nakakagulat, mga pulang bandila sa Journalism.
Bakit ito mahalaga:
Ang iba't ibang anyo ng data na bumubuo sa nilalaman ng balita ay nasa bingit ng duplicity, dahil ang sintetikong media -isang algorithm na maaaring manipulahin ang mga teksto, larawan, at audiovisual - ay kasalukuyang magagamit sa mga naghahanap nito.
Sa modelong ito na nakabatay sa AI, 'posibleng gumawa ng 'mga mukha at lugar na wala at kahit na lumikha ng digital voice avatar na ginagaya ang pagsasalita ng tao.'( Aldana Vales 2019)
Isipin ang isang mundo, kung saan medyo mahirap pag-iba-ibahin ang peke at totoong balita, dahil maaaring baguhin ng mga nagpapakalat ng pekeng balita ang 'ebidensya' upang umangkop sa kanilang agenda. Halimbawa; walang titigil sa paniniwalang nagsimula na ang World War III, kung ang mga video nina Trump, Putin, at Kim na nagdedeklara ng digmaan ay globally circulated online. Bagama't ang naturang balita ay maaaring i-debunk ng mga gobyernong kasangkot, ang sikolohikal at pang-ekonomiyang panic na idudulot nito ay maaaring mas malaki kaysa sa epekto ng isang misayl.
Paghuhukay ng Mas Malalim
Maaaring malikha ang sintetikong media sa pamamagitan ng tatlong anyo ng generative artificial intelligence, ibig sabihin; Generative Adversarial Networks (GAN), Variational Autoencoders, at Recurrent Neural Networks. Ang mga nabanggit na GAI ay ginagamit para sa pagbuo ng larawan, video, at teksto ayon sa pagkakabanggit. Ginagamit ang word generation dahil karamihan sa mga content ng media na nilikha gamit ang mga algorithm na ito ay hindi umiiral; gayunpaman, ang synthetic media ay maaari ding gamitin para sa pagkopya.
Ayon kay Aldana Vales, 'Gumagamit ang Generative Adversarial Networks ng dalawang neural network (ang neural network ay isang computing system na maaaring mahulaan at magmodelo ng mga kumplikadong relasyon at pattern) na nakikipagkumpitensya sa isa't isa.'
Ang una at pangalawang network ay kumikilos bilang generator at discriminator nang paisa-isa. Pinangangasiwaan ng discriminator ang generator, tinitiyak na walang batong natitira. Pagkatapos ng ilang 'pabalik-balik' na rebisyon ng duo, ang nilalamang ginawa ay magiging katulad ng orihinal.
Hindi tulad ng Generative Adversarial Networks, ang mga neural network sa Variational Autoencoders ay tinatawag na encoder at decoder, dahil ang pamamaraan ay nagsasangkot ng compression at reconstruction ng video content. 'Ang decoder ay may kasamang probability modeling na tumutukoy sa mga malamang na pagkakaiba sa pagitan ng dalawa upang ito ay muling buuin ang mga elemento na kung hindi man ay mawawala sa pamamagitan ng proseso ng pag-encode-decoding.' (Aldana Vales 2019)
Ang mga paulit-ulit na neural network ay gumagana sa pamamagitan ng 'pagkilala sa istraktura sa isang malaking hanay ng teksto'. Ito ang paraan na ginamit sa text autocorrect phone apk.
Ang mga pamamaraan na ito ay inilalapat sa iba't ibang mga proyekto tulad ng; GauGAN, Face2Face , at modelong GPT-2. Ang pinakabagong application ng Synthetic media ay matatagpuan sa Siri o Alexa. Ang mga virtual assistant na ito ay mayroon na ngayong kakayahan na 'i-text ang audio at gayahin ang pagsasalita ng tao'.
Sa isang artikulo noong 2017, na pinamagatang 'AI-Assisted porn is here and we're all fucked', inilantad ni Vice ang sirkulasyon ng isang pekeng porn video, na hindi problema dahil karamihan sa mga plot na inilalarawan sa porn movies ay peke (LoL); maliban na ang aktor ay may mukha ng isang sikat na non-pornographic actress, si Gal Gadot (Wonder woman). Gayundin, noong 2018, 'isang video na nagpapakita kay Pangulong Barack Obama na nagsasalita tungkol sa mga panganib ng mga manipuladong video' ay ipinakalat sa Buzzfeed. Ang kakaiba sa video na ito ay ang AI-Generated na paksa ay may mukha ni Obama at boses ni Jordan Peele, salamat sa Synthetic media.
Nilalaman mula sa aming mga kasosyo
Mayroong patuloy na kampanya laban sa potensyal na pinsala ng Synthetic media sa pagiging tunay ng balita; gayunpaman, 'Higit pa sa pag-uulat…ang mga silid-balitaan ay tumutuon sa synthetic media detection at pagpapatunay ng impormasyon. Ang Wall Street Journal, halimbawa, ay lumikha ng isang gabay sa silid-basahan at komite upang matukoy ang mga deepfakes. Ang New York Times kamakailan ay nag-anunsyo na ang paggalugad ng isang blockchain-based na sistema upang labanan ang maling impormasyon online.' (Aldana Vales 2019)
Bottom line
Maaaring makatulong ang sintetikong media sa mga ahensya ng balita na masira ang hadlang sa wika nang walang putol. Gayundin, maaari nitong hikayatin ang sirkulasyon ng fake news. Bagama't imposibleng pigilan ang mga higanteng kumpanya ng tech mula sa pagsisid sa pananaliksik ng AI-Tech, matututuhan ng mga mamamahayag kung paano kontrolin ang pinsalang dulot ng synthetic media.