Le sentiment sur l'IA générative connaît une correction de cap à la suite des faux pas de Google et Microsoft dans la mise en œuvre des LLM.
Les éditeurs s'attaquent maintenant aux implications réelles d'un outil qui peut cracher des rames de copie en un clin d'œil pour les utilisateurs ayant très peu d'expérience en écriture. Les inquiétudes grandissent face à un flot d'histoires écrites par l'IA de mauvaise qualité submergeant les bureaux de soumission. D'autres, pendant ce temps, posent de sérieuses questions sur l'endroit où l'IA obtient les données qu'elle réutilise.
Point douloureux de l'éditeur
Peter Bale de l'INMA souligne que la préoccupation des éditeurs est double en ce qui concerne les LLM intégrés à la recherche - les attributions et les recherches sans clic.
Les éditeurs sont révoltés à l'idée que l'IA générative agrège les connaissances sur le Web pour créer des réponses conversationnelles qui ne citent pas l'origine de ces informations. Comme le souligne Bale, cela soulève de sérieuses questions sur "le droit d'auteur, les conditions, l'exactitude, ainsi que la grande question du paiement".
Dans le même temps, on craint vraiment que l'IA intégrée à la recherche n'exacerbe le problème des recherches sans clic. C'est là que l'utilisateur obtient sa réponse à partir d'une fonctionnalité de recherche Google, telle qu'un extrait en vedette, sans avoir à cliquer sur un résultat de recherche.
Wired a déjà rapporté comment le chatbot Bing a pu jeter un coup d'œil derrière le mur payant de Wirecutter et fournir un accès gratuit au contenu. Wired a noté que les éditeurs réfléchissaient "à l'opportunité de riposter contre Microsoft".
Le trafic génère des revenus. Oui, c'est plus compliqué que ça, mais pas de beaucoup. Choisissez un modèle de monétisation et, en fin de compte, cela fonctionne ou non en fonction du nombre de personnes qui accèdent à votre site.
Il y a un peu plus d'un an, j'écrivais sur la façon dont News Showcase était la réponse de Google à la pression réglementaire mondiale pour lui et Facebook de payer pour créer des liens vers des articles de presse.
La poussée en Europe a vu Google non seulement signer des accords News Showcase avec des éditeurs (qui ont été critiqués pour le manque de transparence), mais également lancer un nouvel outil de licence automatisé appelé le programme Extended News Previews (ENP) , qui fait désormais partie de la console de recherche Google.
En fin de compte, les éditeurs peuvent finir par avoir l'impression qu'ils doivent riposter aux LLM intégrés à la recherche afin de protéger leur contenu contre la cannibalisation. Que ce soit par le lobbying pour un changement de réglementation ou des poursuites judiciaires, cela reste à voir.
Étant donné la lutte notoire des gouvernements pour se tenir au courant des changements technologiques, ne soyez pas surpris s'il faut des années avant que nous ne voyions des changements réglementaires significatifs sur ce front.
AI-Walls
Dans cet esprit, j'ai demandé à Mahendra Choudhary, responsable du référencement technique et de l'actualité de State of Digital Publishing (SODP) Choudhary a suggéré que les grands éditeurs de nouvelles – et à un moment donné les fournisseurs d'hébergement / même les FAI – commenceraient à empêcher les robots IA d'analyser leur site.
Choudhary a déclaré : « Personne ne veut que son contenu soit réutilisé gratuitement par l'IA. Mais les éditeurs de nouvelles factureront ces IA pour explorer leurs données ou les empêcheront d'explorer leurs sites en premier lieu. Cela rendra les résultats de l'IA redondants et frustrants.
Contenu de nos partenaires
Il a souligné que Google dispose de plusieurs robots pour chaque segment de résultats - recherche, actualités, images, etc. - et utilise probablement les données de tous ces robots pour son chatbot Bard AI. ChatGPT, quant à lui, s'appuie principalement sur CCBot .
Choudhary a déclaré : « À terme, tous les outils d'IA qui analysent les données devront publier ouvertement les noms de leurs bots et la plage d'adresses IP qu'ils utilisent pour analyser le Web, comme le font Google et d'autres moteurs de recherche. Cela signifie que les éditeurs Web pourront les bloquer s'ils le souhaitent. »
Tout en reconnaissant la probabilité que les CTR de ces sites Web connaissent une baisse du trafic, il a fait valoir qu'il était peu probable que cela fasse une grande brèche. Il a noté qu'après le lancement de fonctionnalités qui entraînaient des recherches sans clic, "les éditeurs gagnaient encore des clics".