Il sentimento nei confronti dell’intelligenza artificiale generativa sta subendo una correzione di rotta sulla scia dei passi falsi di Google e Microsoft nell’implementazione dei LLM.
Gli editori stanno ora affrontando le implicazioni nel mondo reale di uno strumento in grado di produrre risme di testi in un batter d'occhio per utenti con pochissima esperienza di scrittura. Stanno crescendo le preoccupazioni per un’ondata di storie scritte dall’intelligenza artificiale di bassa qualità che inondano i banchi di presentazione. Altri, nel frattempo, si pongono seri interrogativi su dove l’IA ottenga i dati che sta riutilizzando.
Punto dolente dell'editore
Peter Bale dell'INMA sottolinea che la preoccupazione per gli editori è duplice quando si tratta di LLM integrati nella ricerca: attribuzioni e ricerche senza clic.
Gli editori sono infuriati davanti alla prospettiva che l'intelligenza artificiale generativa aggreghi la conoscenza sul web per creare risposte conversazionali che non citino la provenienza di tali informazioni. Come sottolinea Bale, ciò solleva alcune serie domande su “copyright, termini, accuratezza, nonché la grande questione del pagamento”.
Allo stesso tempo, esiste la reale preoccupazione che l’intelligenza artificiale integrata nella ricerca possa aggravare il problema delle ricerche a zero clic. È qui che l'utente ottiene la risposta da una funzione di ricerca di Google, ad esempio uno snippet in primo piano, senza dover fare clic su un risultato di ricerca.
Wired ha già riferito di come il chatbot di Bing sia riuscito a sbirciare dietro il paywall misurato di Wirecutter e fornire accesso gratuito ai contenuti. Wired ha osservato che gli editori stavano valutando “se reagire a Microsoft”.
Il traffico genera entrate. Sì, è più complicato di così, ma non di molto. Scegli un modello di monetizzazione e, alla fine, funzionerà o meno in base a quante persone arrivano sul tuo sito.
È passato poco più di un anno da quando ho scritto di come News Showcase fosse la risposta di Google alla spinta normativa globale che imponeva sia a esso che a Facebook di pagare per collegarsi ad articoli di notizie.
La spinta in Europa ha visto Google non solo firmare accordi di News Showcase con gli editori (che sono stati perseguitati dalle critiche per la mancanza di trasparenza), ma anche lanciare un nuovo strumento di licenza automatizzato chiamato Programma Extended News Previews (ENP) , che ora fa parte di Google Search Console.
Alla fine, gli editori potrebbero sentirsi come se dovessero reagire ai LLM integrati nella ricerca per proteggere i loro contenuti dalla cannibalizzazione. Resta da vedere se ciò avvenga attraverso pressioni per cambiamenti normativi o azioni legali.
Considerata la famigerata lotta dei governi per restare al passo con i cambiamenti tecnologici, non sorprendetevi se ci vorranno anni prima di vedere cambiamenti normativi significativi su questo fronte.
AI-Muri
Con questo in mente, ho chiesto di State of Digital Publishing (SODP) , Mahendra Choudhary, come immaginava che gli editori avrebbero potuto rispondere. Choudhary ha suggerito che gli editori di notizie più grandi – e ad un certo punto i provider di hosting/anche gli ISP – inizierebbero a impedire ai bot di intelligenza artificiale di scansionare il loro sito.
Choudhary ha dichiarato: “Nessuno vuole che i propri contenuti vengano riproposti gratuitamente dall’intelligenza artificiale. Ma gli editori di notizie addebiteranno a queste IA la scansione dei loro dati o impediranno loro di eseguire la scansione dei loro siti in primo luogo. Ciò renderà i risultati dell’intelligenza artificiale ridondanti e frustranti”.
Contenuti dei nostri partner
Ha sottolineato che Google ha più bot per ogni segmento di risultati – ricerca, notizie, immagini, ecc. – e probabilmente utilizza i dati di tutti questi bot per il suo chatbot Bard AI. ChatGPT, nel frattempo, si appoggia principalmente a CCBot .
Choudhary ha dichiarato: “Alla fine, tutti gli strumenti di intelligenza artificiale che scansionano i dati dovranno pubblicare apertamente i nomi dei loro bot e l’intervallo IP che utilizzano per scansionare il web, in modo simile a come fanno Google e altri motori di ricerca. Ciò significherà che gli editori web potranno bloccarli se lo desiderano."
Pur riconoscendo la probabilità che i CTR per questi siti web subiscano una sorta di calo nel traffico, ha sostenuto che è improbabile che ciò possa intaccare molto. Ha osservato che dopo il lancio di funzionalità che hanno portato a ricerche a zero clic "gli editori stavano ancora guadagnando clic".