Governi e osservatori di tutto il mondo hanno ripetutamente sollevato preoccupazioni riguardo al potere monopolistico delle aziende Big Tech e al ruolo che queste svolgono nella diffusione di disinformazione. In risposta, le aziende Big Tech hanno cercato di anticipare le normative regolamentandosi da sole .
Con l'annuncio di Facebook che il suo comitato di sorveglianza prenderà una decisione sulla possibilità o meno dell'ex presidente Donald Trump di riottenere l'accesso al suo account dopo che la società lo ha sospeso, questa e altre mosse di alto profilo da parte di aziende tecnologiche per affrontare la disinformazione hanno riacceso il dibattito su cosa comportarsi in modo responsabile -dovrebbe assomigliare alla regolamentazione da parte delle aziende tecnologiche.
La ricerca mostra tre modi principali in cui l’autoregolamentazione dei social media può funzionare: depriorizzare il coinvolgimento, etichettare la disinformazione e verificare l’accuratezza del crowdsourcing.
Depriorizzare il coinvolgimento
Le piattaforme di social media sono costruite per un'interazione costante e le aziende progettano gli algoritmi che scelgono quali post vedere le persone per mantenere coinvolti i propri utenti. Gli studi mostrano che le falsità si diffondono più velocemente della verità sui social media , spesso perché le persone trovano notizie che scatenano emozioni più coinvolgenti , il che rende più probabile che leggano, reagiscano e condividano tali notizie. Questo effetto viene amplificato attraverso raccomandazioni algoritmiche. Il mio lavoro mostra che le persone interagiscono con i video di YouTube sul diabete più spesso quando i video sono meno informativi.
La maggior parte delle piattaforme Big Tech opera anche senza i guardiani o i filtri che governano le fonti tradizionali di notizie e informazioni. La loro vasta raccolta di dati demografici dettagliati e granulari dà loro la possibilità di “microtargetizzare” piccoli numeri di utenti . Ciò, combinato con l’amplificazione algoritmica dei contenuti progettati per aumentare il coinvolgimento, può avere una serie di conseguenze negative per la società, tra cui la soppressione degli elettori digitali , il targeting delle minoranze per la disinformazione e il targeting discriminatorio degli annunci pubblicitari .
Declassare il coinvolgimento nelle raccomandazioni sui contenuti dovrebbe ridurre l’ effetto “tana del coniglio” dei social media , dove le persone guardano post dopo post, video dopo video. La progettazione algoritmica delle piattaforme Big Tech dà priorità ai contenuti nuovi e microtargetizzati, il che favorisce una proliferazione quasi incontrollata di disinformazione. Il CEO di Apple, Tim Cook, ha recentemente riassunto il problema : “In un momento di dilagante disinformazione e teorie cospirazioniste alimentate da algoritmi, non possiamo più chiudere un occhio su una teoria della tecnologia che dice che tutto il coinvolgimento è un buon coinvolgimento – più a lungo è, meglio è – e tutto con l’obiettivo di raccogliere quanti più dati possibili”.
Etichettare la disinformazione
Le aziende tecnologiche potrebbero adottare un sistema di etichettatura dei contenuti per identificare se una notizia è verificata o meno. Durante le elezioni, Twitter ha annunciato una politica di integrità civica in base alla quale i tweet etichettati come contestati o fuorvianti non sarebbero stati raccomandati dai loro algoritmi . La ricerca dimostra che l’etichettatura funziona. Gli studi suggeriscono che applicare etichette ai post dei media controllati dallo stato , come il canale mediatico russo RT, potrebbe mitigare gli effetti della disinformazione.
In un esperimento, i ricercatori hanno assunto lavoratori temporanei anonimi per etichettare i post affidabili . I post sono stati successivamente visualizzati su Facebook con etichette annotate dagli operatori del crowdsourcing. In quell’esperimento, i crowdworker provenienti da tutto lo spettro politico sono stati in grado di distinguere tra fonti mainstream e fonti di notizie iperpartitiche o false, suggerendo che le folle spesso fanno un buon lavoro nel distinguere tra notizie vere e false.
Gli esperimenti mostrano anche che gli individui con una certa esposizione alle fonti di notizie possono generalmente distinguere tra notizie vere e false. Altri esperimenti hanno scoperto che fornire un promemoria sull’accuratezza di un post aumentava la probabilità che i partecipanti condividessero post accurati più di quelli imprecisi.
Nel mio lavoro, ho studiato come le combinazioni di annotatori umani, o moderatori di contenuti, e algoritmi di intelligenza artificiale (quella che viene definita intelligenza umana nel ciclo) possono essere utilizzate per classificare video relativi all'assistenza sanitaria su YouTube . Sebbene non sia fattibile che i professionisti medici guardino ogni singolo video di YouTube sul diabete, è possibile avere un metodo di classificazione “human-in-the-loop”. Ad esempio, io e i miei colleghi abbiamo reclutato esperti in materia per fornire feedback agli algoritmi di intelligenza artificiale, il che si traduce in migliori valutazioni del contenuto di post e video.
Le aziende tecnologiche hanno già utilizzato tali approcci. Facebook utilizza una combinazione di fact-checker e algoritmi di rilevamento delle somiglianze per filtrare la disinformazione relativa al COVID-19. Gli algoritmi rilevano duplicazioni e copie ravvicinate di post fuorvianti.
Applicazione su base comunitaria
Twitter ha recentemente annunciato il lancio di un forum comunitario, Birdwatch , per combattere la disinformazione. Sebbene Twitter non abbia fornito dettagli su come verrà implementato, un meccanismo di verifica basato sulla folla che somma voti o voti negativi ai post di tendenza e utilizza algoritmi di newsfeed per declassare i contenuti provenienti da fonti non affidabili potrebbe aiutare a ridurre la disinformazione.
L'idea di base è simile al sistema di contributo dei contenuti di Wikipedia , in cui i volontari classificano se i post di tendenza sono reali o falsi. La sfida è impedire alle persone di votare a favore di contenuti interessanti e convincenti ma non verificati, in particolare quando ci sono sforzi deliberati per manipolare il voto . Le persone possono giocare ai sistemi attraverso un’azione coordinata , come nel recente episodio di pompaggio di azioni di GameStop .
Un altro problema è come motivare le persone a partecipare volontariamente a uno sforzo collaborativo come il rilevamento di notizie false in crowdsourcing. Tali sforzi, tuttavia, si basano su volontari che annotano l’accuratezza degli articoli di notizie , in modo simile a Wikipedia, e richiedono anche la partecipazione di organizzazioni di verifica dei fatti di terze parti che possono essere utilizzate per rilevare se una notizia è fuorviante.
Tuttavia, un modello in stile Wikipedia necessita di robusti meccanismi di governance della comunità per garantire che i singoli volontari seguano linee guida coerenti quando autenticano e verificano i post. Wikipedia ha recentemente aggiornato i suoi standard comunitari proprio per arginare la diffusione della disinformazione . Se le grandi aziende tecnologiche consentiranno volontariamente che le loro politiche di moderazione dei contenuti vengano riviste in modo così trasparente è un’altra questione.
[ Ricevi le nostre migliori storie di scienza, salute e tecnologia. Iscriviti alla newsletter scientifica di The Conversation .]
Le responsabilità delle Big Tech
In definitiva, le società di social media potrebbero utilizzare una combinazione di depriorizzazione del coinvolgimento, collaborazione con testate giornalistiche e rilevamento della disinformazione tramite intelligenza artificiale e crowdsourcing. È improbabile che questi approcci funzionino isolatamente e dovranno essere progettati per funzionare insieme.
Le azioni coordinate agevolate dai social media possono sconvolgere la società, dai mercati finanziari alla politica . Le piattaforme tecnologiche svolgono un ruolo straordinariamente importante nel plasmare l’opinione pubblica, il che significa che hanno la responsabilità nei confronti del pubblico di governarsi in modo efficace.
Le richieste di una regolamentazione governativa delle Big Tech stanno crescendo in tutto il mondo, compresi gli Stati Uniti, dove un recente sondaggio Gallup ha mostrato un peggioramento dell’atteggiamento nei confronti delle aziende tecnologiche e un maggiore sostegno alla regolamentazione governativa. tedesche sulla moderazione dei contenuti impongono una maggiore responsabilità alle aziende tecnologiche per i contenuti condivisi sulle loro piattaforme. Una serie di regolamenti in Europa volti a ridurre le protezioni dalla responsabilità di cui godono queste piattaforme e regolamenti proposti negli Stati Uniti volti a ristrutturare le leggi su Internet porteranno un maggiore controllo sulle politiche di moderazione dei contenuti delle aziende tecnologiche.
È probabile che una qualche forma di regolamentazione governativa negli Stati Uniti. Le Big Tech hanno ancora l’opportunità di impegnarsi in un’autoregolamentazione responsabile, prima che le aziende siano costrette ad agire dai legislatori.
Anjana Susarla , Omura-Saxena Professore di IA responsabile, Michigan State University
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l' articolo originale .