Con il passare dei mesi, diventa sempre più chiaro che l’intelligenza artificiale generativa non solo è destinata a durare, ma avrà un profondo impatto sul settore editoriale nel lungo periodo.
Sebbene i principali editori abbiano sperimentato l’intelligenza artificiale per diversi anni, sembra che molti abbiano ora creato team dedicati per supervisionare le iniziative di intelligenza artificiale all’interno delle loro aziende.
Questo non è qualcosa che dovrebbe allarmare gli editori più piccoli. C'è una ragione per cui i ruoli di ingegneria tempestiva ottengono stipendi così alti : il compito di far funzionare l'intelligenza artificiale generativa all'interno di un flusso editoriale non è un'impresa da poco e potrebbe richiedere anni per essere perfezionata.
Anche il SODP Siamo ancora molto, molto lontani dal considerare di utilizzarlo come parte del nostro processo di scrittura degli articoli, ma ne vediamo il potenziale per casi d'uso limitati.
Non approfondirò qui il funzionamento interno del nostro progetto di intelligenza artificiale, semplicemente perché è ancora lontano dal dare frutti. Lo salverò per un caso di studio in un secondo momento.
Per ora, quello che dirò è che gli editori trarranno vantaggio dalla sperimentazione su compiti piccoli e a basso rischio. Questi progetti hanno il potenziale per fornire informazioni e conoscenze preziose e relativamente poco costose sul funzionamento dell’intelligenza artificiale generativa e sui suoi limiti.
Ma non è necessario che tu creda solo alla mia parola. Anche il direttore del think tank sui media Polis della London School of Economics, Charlie Beckett, incoraggia gli editori a “ iniziare a giocare con [l’intelligenza artificiale] ”.
Posso capire perché la sperimentazione con l'intelligenza artificiale potrebbe essere in fondo alla lista delle priorità di alcuni editori. Dopotutto, c'è molto rumore sulle sfide poste dalla tecnologia. La violazione del copyright e l’aumento della disinformazione sembrano essere i principali colpevoli della giornata.
L'intelligenza artificiale nel mirino
Il magnate dei media Barry Diller ha esortato gli editori a prendere in considerazione l’idea di citare in giudizio le società di intelligenza artificiale per evitare che i loro contenuti vengano “rubati”.
"Se tutte le informazioni del mondo potessero essere risucchiate in queste fauci e poi sostanzialmente riconfezionate... non ci sarebbe alcuna pubblicazione, non è possibile", ha detto Diller durante il Semafor Media Summit, prima di aggiungere: "Le aziende possono assolutamente fare causa ai sensi di legge sul diritto d’autore”.
I suoi commenti arrivano nello stesso periodo in cui la società di media intelligence Toolkits ha pubblicato il suo rapporto Subscription Publishing Snapshot: Q2 2023 , rivelando che l’intelligenza artificiale generativa “potrebbe ostacolare
sforzi di abbonamento”.
Il fornitore di analisi ha notato che gli editori sono stati colti di sorpresa dopo l'emergere di ChatGPT. Ha aggiunto che l'industria è sempre più preoccupata che il pubblico possa utilizzare Bard di Google e Bing Chat di Microsoft per accedere liberamente ai contenuti protetti da paywall.
Questo è un problema precedentemente segnalato dal mio collega Mahendra Choudhary, il quale ha sostenuto che gli editori più grandi probabilmente inizierebbero a bloccare l’accesso del crawler AI per prevenire tale violazione.
Sebbene lo scraping dei contenuti sia un problema legittimo, sembrano già esserci risposte che non dovrebbero essere particolarmente difficili da implementare. Dopotutto, le sfide tecnologiche dovrebbero avere una soluzione tecnologica.
Tuttavia, questa non è l’unica preoccupazione che circola.
Controllo dei danni
Le immagini Photoshop e i video deepfake sono stati un problema per anni, ma l’ascesa dell’intelligenza artificiale generativa semplifica e accelera notevolmente questo processo.
Le immagini false create dall’intelligenza artificiale hanno già iniziato a diffondersi dai social media al mainstream e i media sono sempre più preoccupati per le conseguenze.
Contenuti dei nostri partner
Ci saranno sempre sfide ogni volta che una nuova tecnologia guadagnerà abbastanza terreno e mi aspetto che ci saranno problemi iniziali man mano che i media e il pubblico in generale si adatteranno all’integrazione dell’intelligenza artificiale.
Detto questo, la disinformazione non è certo un fenomeno nuovo, visto che WhatsApp viene utilizzato per diffondere voci in India che hanno portato a omicidi di massa nel 2018 . In effetti, c'è da sostenere che, tra un pubblico sempre più scettico e il desiderio delle pubblicazioni di evitare di essere screditate , le immagini fraudolente rappresentano una minaccia meno grave di quanto alcuni allarmisti vorrebbero far credere.
Non sono ingenuamente ottimista riguardo al futuro dell’intelligenza artificiale generativa, ma non credo nemmeno che ci sia motivo di farsi prendere dal panico.
L’intelligenza artificiale generativa è qui e gli editori devono affrontarla. Ma non sono solo le organizzazioni dei media a dover comprenderne l’importanza, anche i singoli individui devono rifletterne le implicazioni per la loro carriera. I futuri datori di lavoro si aspetteranno che i candidati elenchino l’intelligenza artificiale generativa nella sezione delle competenze del loro CV più o meno allo stesso modo in cui appaiono ora altre competenze software più banali? Spunti di riflessione.