Regjeringer og observatører over hele verden har gjentatte ganger reist bekymringer om monopolmakten til Big Tech-selskaper og rollen selskapene spiller i å spre feilinformasjon. Som svar har Big Tech-selskaper forsøkt å forhindre reguleringer ved å regulere seg selv .
Med Facebooks kunngjøring om at dets tilsynsstyre vil ta en avgjørelse om hvorvidt tidligere president Donald Trump kan få tilbake tilgang til kontoen sin etter at selskapet har suspendert den, har dette og andre høyprofilerte grep fra teknologiselskaper for å adressere feilinformasjon gjenoppstått debatten om hvilket ansvarlig selv. -regulering fra teknologiselskaper skal se ut.
Forskning viser tre viktige måter selvregulering av sosiale medier kan fungere på: nedprioritering av engasjement, merke feilinformasjon og verifisering av crowdsource-nøyaktighet.
Nedprioriter engasjement
Sosiale medieplattformer er bygget for konstant interaksjon , og selskapene designer algoritmene som velger hvilke innlegg folk ser for å holde brukerne engasjert. Studier viser at usannheter spres raskere enn sannheten på sosiale medier , ofte fordi folk finner nyheter som trigger følelser til å være mer engasjerende , noe som gjør det mer sannsynlig at de vil lese, reagere på og dele slike nyheter. Denne effekten blir forsterket gjennom algoritmiske anbefalinger. Mitt eget arbeid viser at folk engasjerer seg i YouTube-videoer om diabetes oftere når videoene er mindre informative.
De fleste Big Tech-plattformer opererer også uten portvaktene eller filtrene som styrer tradisjonelle kilder til nyheter og informasjon. Deres store mengder av finkornede og detaljerte demografiske data gir dem muligheten til å "mikrotrette" et lite antall brukere . Dette, kombinert med algoritmisk forsterkning av innhold designet for å øke engasjementet, kan ha en rekke negative konsekvenser for samfunnet, inkludert digital velgerundertrykkelse , målretting av minoriteter for desinformasjon og diskriminerende annonsemålretting .
Å nedprioritere engasjement i innholdsanbefalinger bør redusere « kaninhullet»-effekten av sosiale medier , der folk ser på innlegg etter innlegg, video etter video. Den algoritmiske utformingen av Big Tech-plattformer prioriterer nytt og mikromålrettet innhold, som fremmer en nesten ukontrollert spredning av feilinformasjon. Apples administrerende direktør Tim Cook oppsummerte nylig problemet : «I et øyeblikk med utbredt desinformasjon og konspirasjonsteorier drevet av algoritmer, kan vi ikke lenger lukke øynene for en teknologiteori som sier at alt engasjement er godt engasjement – jo lenger jo bedre – og alt med mål om å samle inn så mye data som mulig.»
Merk feilinformasjon
Teknologiselskapene kan ta i bruk et innholdsmerkingssystem for å identifisere om en nyhet er verifisert eller ikke. Under valget kunngjorde Twitter en politikk for borgerlig integritet der tweets merket som omstridte eller villedende ikke ville bli anbefalt av deres algoritmer . Forskning viser at merking fungerer. Studier tyder på at bruk av merkelapper på innlegg fra statskontrollerte medier , for eksempel fra den russiske mediekanalen RT, kan dempe effekten av feilinformasjon.
I et eksperiment hyret forskere inn anonyme vikarer for å merke pålitelige innlegg . Innleggene ble deretter vist på Facebook med etiketter kommentert av crowdsource-arbeiderne. I det eksperimentet klarte publikumsarbeidere fra hele det politiske spekteret å skille mellom mainstream-kilder og hyperpartiske eller falske nyhetskilder, noe som tyder på at folkemengder ofte gjør en god jobb med å fortelle forskjellen mellom ekte og falske nyheter.
Eksperimenter viser også at personer med en viss eksponering for nyhetskilder generelt kan skille mellom ekte og falske nyheter. Andre eksperimenter fant at å gi en påminnelse om nøyaktigheten til et innlegg økte sannsynligheten for at deltakerne delte nøyaktige innlegg mer enn unøyaktige innlegg.
I mitt eget arbeid har jeg studert hvordan kombinasjoner av menneskelige annotatorer, eller innholdsmoderatorer, og algoritmer for kunstig intelligens – det som omtales som human-in-the-loop intelligens – kan brukes til å klassifisere helserelaterte videoer på YouTube . Selv om det ikke er mulig å la medisinske fagfolk se hver eneste YouTube-video om diabetes, er det mulig å ha en "menneske-i-løkken"-metode for klassifisering. For eksempel rekrutterte kollegene mine og jeg fageksperter for å gi tilbakemelding til AI-algoritmer, noe som resulterer i bedre vurderinger av innholdet i innlegg og videoer.
Teknologiselskaper har allerede brukt slike tilnærminger. Facebook bruker en kombinasjon av faktasjekkere og likhetsdeteksjonsalgoritmer for å skjerme covid-19-relatert feilinformasjon. Algoritmene oppdager dupliseringer og lukker kopier av villedende innlegg.
Fellesskapsbasert håndhevelse
Twitter annonserte nylig at de lanserer et fellesskapsforum, Birdwatch , for å bekjempe feilinformasjon. Selv om Twitter ikke har gitt detaljer om hvordan dette vil bli implementert, kan en publikumsbasert bekreftelsesmekanisme som legger opp stemmer eller nedstemmer til trendinnlegg og bruker nyhetsfeedalgoritmer for å rangere innhold fra upålitelige kilder bidra til å redusere feilinformasjon.
Grunnideen ligner på Wikipedias innholdsbidragssystem , der frivillige klassifiserer om trendinnlegg er ekte eller falske. Utfordringen er å hindre folk i å oppstemme interessant og overbevisende, men ubekreftet innhold, spesielt når det er bevisste forsøk på å manipulere stemmegivningen . Folk kan spille systemene gjennom koordinert handling , som i den nylige GameStop aksjepumpeepisoden .
Et annet problem er hvordan man kan motivere folk til frivillig å delta i et samarbeid som for eksempel oppdagelse av falske nyheter. Slik innsats er imidlertid avhengig av frivillige som kommenterer nøyaktigheten av nyhetsartikler , i likhet med Wikipedia, og krever også deltakelse fra tredjeparts faktasjekkingsorganisasjoner som kan brukes til å oppdage om en nyhet er villedende.
En modell i Wikipedia-stil trenger imidlertid robuste mekanismer for samfunnsstyring for å sikre at individuelle frivillige følger konsistente retningslinjer når de autentiserer og faktasjekker innlegg. Wikipedia oppdaterte nylig sine fellesskapsstandarder spesielt for å stoppe spredningen av feilinformasjon . Om de store teknologiselskapene frivillig vil tillate at retningslinjene for innholdsmoderering blir gjennomgått så transparent, er en annen sak.
[ Få våre beste historier om vitenskap, helse og teknologi. Registrer deg for The Conversation sitt vitenskapelige nyhetsbrev .]
Big Techs ansvar
Til syvende og sist kan selskaper i sosiale medier bruke en kombinasjon av å deprioritere engasjement, samarbeid med nyhetsorganisasjoner og AI og gjenkjenning av feilinformasjon. Disse tilnærmingene vil neppe fungere isolert og må utformes for å fungere sammen.
Koordinerte handlinger tilrettelagt av sosiale medier kan forstyrre samfunnet, fra finansmarkeder til politikk . Teknologiplattformene spiller en usedvanlig stor rolle i å forme opinionen, noe som betyr at de har et ansvar overfor publikum for å styre seg selv effektivt.
Oppfordringer til statlig regulering av Big Tech vokser over hele verden, inkludert i USA, der en fersk Gallup-undersøkelse viste forverrede holdninger til teknologiselskaper og større støtte til statlig regulering. Tysklands nye lover om innholdsmoderering presser større ansvar på teknologiselskaper for innholdet som deles på deres plattformer. En rekke reguleringer i Europa som tar sikte på å redusere ansvarsbeskyttelsen som disse plattformene nyter godt av, og foreslåtte reguleringer i USA som tar sikte på å restrukturere internettlover, vil gi større gransking av teknologiselskapers retningslinjer for innholdsmoderering.
En eller annen form for myndighetsregulering er sannsynligvis i USA. Big Tech har fortsatt en mulighet til å engasjere seg i ansvarlig selvregulering – før selskapene blir tvunget til å handle av lovgivere.
Anjana Susarla , Omura-Saxena professor i ansvarlig AI, Michigan State University
Denne artikkelen er publisert på nytt fra The Conversation under en Creative Commons-lisens. Les originalartikkelen .