Ang mga gobyerno at tagamasid sa buong mundo ay paulit-ulit na nagpahayag ng mga alalahanin tungkol sa kapangyarihan ng monopolyo ng mga kumpanya ng Big Tech at ang papel na ginagampanan ng mga kumpanya sa pagpapakalat ng maling impormasyon. Bilang tugon, sinubukan ng mga kumpanya ng Big Tech na i-preempt ang mga regulasyon sa pamamagitan ng pagsasaayos sa kanilang sarili .
Sa pag-anunsyo ng Facebook na ang Oversight Board nito ay gagawa ng desisyon kung ang dating Pangulong Donald Trump ay makakabawi ng access sa kanyang account matapos itong suspindihin ng kumpanya, ito at ang iba pang high-profile na hakbang ng mga kumpanya ng teknolohiya upang tugunan ang maling impormasyon ay nagpasimula ng debate tungkol sa kung ano ang responsable sa sarili. -regulasyon ng mga kumpanya ng teknolohiya ay dapat magmukhang.
Ipinapakita ng pananaliksik ang tatlong pangunahing paraan na maaaring gumana ang self-regulation ng social media: i-deprioritize ang pakikipag-ugnayan, maling impormasyon sa label at pag-verify ng katumpakan ng crowdsource.
I-deprioritize ang pakikipag-ugnayan
Ang mga social media platform ay binuo para sa patuloy na pakikipag-ugnayan , at ang mga kumpanya ay nagdidisenyo ng mga algorithm na pumipili kung aling mga post ang makikita ng mga tao upang panatilihing nakatuon ang kanilang mga user. Ipinapakita ng mga pag-aaral na mas mabilis na kumakalat ang mga kasinungalingan kaysa sa katotohanan sa social media , kadalasan dahil nakakahanap ang mga tao ng balita na nag-uudyok sa mga emosyon na maging mas nakakaengganyo , na ginagawang mas malamang na magbasa, mag-react at magbahagi sila ng naturang balita. Ang epektong ito ay lumalakas sa pamamagitan ng mga rekomendasyong algorithm. ng sarili kong gawa na mas madalas na nakikipag-ugnayan ang mga tao sa mga video sa YouTube tungkol sa diabetes kapag hindi gaanong nagbibigay-kaalaman ang mga video.
Karamihan sa mga platform ng Big Tech ay gumagana din nang walang mga gatekeeper o mga filter na namamahala sa mga tradisyonal na mapagkukunan ng balita at impormasyon. Ang kanilang malawak na dami ng pino at detalyadong demograpikong data ay nagbibigay sa kanila ng kakayahang "microtarget" ang maliliit na bilang ng mga user . Ito, na sinamahan ng algorithmic amplification ng content na idinisenyo upang palakasin ang pakikipag-ugnayan, ay maaaring magkaroon ng maraming negatibong kahihinatnan para sa lipunan, kabilang ang digital voter suppression , ang pag-target ng mga minorya para sa disinformation at discriminatory ad targeting .
Ang pag-alis ng priyoridad sa pakikipag-ugnayan sa mga rekomendasyon sa content ay dapat na bawasan ang epekto ng "rabbit hole" ng social media , kung saan tumitingin ang mga tao sa bawat post, video pagkatapos ng video. Ang algorithmic na disenyo ng mga Big Tech na platform ay nagbibigay ng priyoridad sa bago at microtargeted na nilalaman, na nagpapaunlad ng halos hindi napigilang paglaganap ng maling impormasyon. Ang Apple CEO na si Tim Cook ay nagbuod kamakailan ng problema : "Sa isang sandali ng laganap na disinformation at mga teorya ng pagsasabwatan na na-juice ng mga algorithm, hindi na tayo maaaring pumikit sa isang teorya ng teknolohiya na nagsasabing ang lahat ng pakikipag-ugnayan ay magandang pakikipag-ugnayan - mas mahaba ang mas mahusay - at lahat na may layuning mangolekta ng mas maraming data hangga't maaari."
Maling impormasyon sa label
Ang mga kumpanya ng teknolohiya ay maaaring magpatibay ng isang content-labeling system upang matukoy kung ang isang item ng balita ay na-verify o hindi. Sa panahon ng halalan, nag-anunsyo ang Twitter ng patakaran sa civic integrity kung saan hindi irerekomenda ng kanilang mga algorithm . Ipinapakita ng pananaliksik na gumagana ang pag-label. Iminumungkahi ng mga pag-aaral na ang paglalapat ng mga label sa mga post mula sa mga media outlet na kontrolado ng estado , gaya ng mula sa Russian media channel RT, ay maaaring mabawasan ang mga epekto ng maling impormasyon.
Sa isang eksperimento, kumuha ang mga mananaliksik ng mga hindi kilalang pansamantalang manggagawa para lagyan ng label ang mga mapagkakatiwalaang post . Ang mga post ay kasunod na ipinakita sa Facebook na may mga label na na-annotate ng mga manggagawa ng crowdsource. Sa eksperimentong iyon, natukoy ng karamihan ng mga manggagawa mula sa iba't ibang uri ng pulitika ang pagkakaiba sa pagitan ng mga pangunahing pinagmumulan at hyperpartisan o pekeng mga mapagkukunan ng balita, na nagmumungkahi na ang mga pulutong ay kadalasang gumagawa ng magandang trabaho sa pagsasabi ng pagkakaiba sa pagitan ng totoo at pekeng balita.
rin ng mga eksperimento na ang mga indibidwal na may ilang pagkakalantad sa mga pinagmumulan ng balita ay karaniwang nakikilala sa pagitan ng totoo at pekeng balita. ng iba pang mga eksperimento na ang pagbibigay ng paalala tungkol sa katumpakan ng isang post ay nagpapataas ng posibilidad na ang mga kalahok ay nagbahagi ng mga tumpak na post nang higit pa kaysa sa mga hindi tumpak na post.
Sa sarili kong trabaho, napag-aralan ko kung paano magagamit ang mga kumbinasyon ng mga annotator ng tao, o mga moderator ng nilalaman, at mga algorithm ng artificial intelligence – na tinutukoy bilang human-in-the-loop intelligence – para pag-uri-uriin ang mga video na nauugnay sa pangangalagang pangkalusugan sa YouTube . Bagama't hindi posible na panoorin ng mga medikal na propesyonal ang bawat solong video sa YouTube tungkol sa diabetes, posibleng magkaroon ng human-in-the-loop na paraan ng pag-uuri. Halimbawa, nag-recruit kami ng aking mga kasamahan ng mga eksperto sa paksa upang magbigay ng feedback sa mga algorithm ng AI, na nagreresulta sa mas mahusay na mga pagtatasa ng nilalaman ng mga post at video.
Ang mga tech na kumpanya ay gumamit na ng mga ganitong paraan. Gumagamit ang Facebook ng kumbinasyon ng mga fact-checker at similarity-detection algorithm para i-screen ang maling impormasyon na nauugnay sa COVID-19. ng mga algorithm ang mga duplikasyon at malapit na kopya ng mga mapanlinlang na post.
Pagpapatupad na nakabatay sa komunidad
Inanunsyo kamakailan ng Twitter na naglulunsad ito ng community forum, Birdwatch , upang labanan ang maling impormasyon. Bagama't hindi nagbigay ang Twitter ng mga detalye tungkol sa kung paano ito ipapatupad, ang isang crowd-based na mekanismo sa pag-verify na nagdaragdag ng mga boto o pababang mga boto sa mga nagte-trend na post at paggamit ng mga algorithm ng newsfeed upang pababain ang ranggo ng nilalaman mula sa mga hindi mapagkakatiwalaang mapagkukunan ay maaaring makatulong na mabawasan ang maling impormasyon.
Ang pangunahing ideya ay katulad ng sistema ng kontribusyon sa nilalaman ng Wikipedia , kung saan ang mga boluntaryo ay nag-uuri kung ang mga nagte-trend na post ay totoo o peke. Ang hamon ay pinipigilan ang mga tao na bumoto ng kawili-wili at nakakahimok ngunit hindi na-verify na nilalaman, lalo na kapag may mga sinasadyang pagsisikap na manipulahin ang pagboto . Maaaring laro ng mga tao ang mga system sa pamamagitan ng coordinated action , tulad ng sa kamakailang episode ng GameStop stock-pumping .
Ang isa pang problema ay kung paano hikayatin ang mga tao na kusang lumahok sa isang collaborative na pagsisikap tulad ng crowdsourced fake news detection. Gayunpaman, ang gayong mga pagsisikap ay umaasa sa mga boluntaryo na nag-annotate sa katumpakan ng mga artikulo ng balita , na katulad ng Wikipedia, at nangangailangan din ng partisipasyon ng mga third-party na organisasyong tumitingin sa katotohanan na maaaring magamit upang matukoy kung ang isang balita ay nakaliligaw.
Gayunpaman, ang isang modelong istilo ng Wikipedia ay nangangailangan ng matatag na mekanismo ng pamamahala ng komunidad upang matiyak na ang mga indibidwal na boluntaryo ay sumusunod sa pare-parehong mga alituntunin kapag sila ay nagpapatotoo at nagsusuri ng katotohanan na mga post. Kamakailan lamang ay in-update ng Wikipedia ang mga pamantayan ng komunidad nito para pigilan ang pagkalat ng maling impormasyon . Kung ang mga malalaking tech na kumpanya ay kusang pahihintulutan ang kanilang mga patakaran sa pag-moderate ng nilalaman na masuri nang malinaw ay ibang bagay.
[ Kunin ang aming pinakamahusay na mga kuwento sa agham, kalusugan at teknolohiya. Mag-sign up para sa science newsletter ng The Conversation .]
Mga responsibilidad ng Big Tech
Sa huli, ang mga kumpanya ng social media ay maaaring gumamit ng kumbinasyon ng pag-deprioritize ng pakikipag-ugnayan, pakikipagsosyo sa mga organisasyon ng balita, at AI at pagtuklas ng maling impormasyon sa crowdsourced. Ang mga pamamaraang ito ay malabong gumana nang hiwalay at kakailanganing idisenyo upang magtulungan.
Ang mga pinagsama-samang pagkilos na pinadali ng social media ay maaaring makagambala sa lipunan, mula sa mga pamilihan sa pananalapi hanggang sa pulitika . Ang mga platform ng teknolohiya ay gumaganap ng isang napakalaking papel sa paghubog ng opinyon ng publiko, na nangangahulugang mayroon silang responsibilidad sa publiko na pamahalaan ang kanilang sarili nang epektibo.
Ang mga panawagan para sa regulasyon ng pamahalaan ng Big Tech ay lumalaki sa buong mundo, kabilang ang sa US, kung saan ang kamakailang Gallup poll ay nagpakita ng lumalalang saloobin sa mga kumpanya ng teknolohiya at higit na suporta para sa regulasyon ng pamahalaan. ng Germany sa content moderation ay nagtutulak ng mas malaking responsibilidad sa mga tech na kumpanya para sa content na ibinahagi sa kanilang mga platform. Maraming mga regulasyon sa Europe na naglalayong bawasan ang mga proteksyon sa pananagutan na tinatamasa ng mga platform na ito at ang mga iminungkahing regulasyon sa US na naglalayong baguhin ang mga batas sa internet ay magdadala ng higit na pagsisiyasat sa mga patakaran sa pagmo-moderate ng nilalaman ng mga tech na kumpanya.
Ang ilang anyo ng regulasyon ng gobyerno ay malamang na sa US Big Tech ay mayroon pa ring pagkakataon na makisali sa responsableng regulasyon sa sarili - bago mapilitan ang mga kumpanya na kumilos ng mga mambabatas.
Anjana Susarla , Omura-Saxena Propesor ng Responsable AI, Michigan State University
Ang artikulong ito ay muling nai-publish mula sa The Conversation sa ilalim ng lisensya ng Creative Commons. Basahin ang orihinal na artikulo .