Sentimentet over generativ AI opplever en kurskorreksjon i kjølvannet av Google og Microsofts feiltrinn i implementeringen av LLM-er.
Utgivere takler nå implikasjonene i den virkelige verden av et verktøy som kan spytte ut massevis av kopier på et øyeblikk for brukere med svært liten skriveerfaring. Bekymringene øker over en flom av AI-skrevne historier av lav kvalitet som oversvømmer innsendingspulter. Andre stiller i mellomtiden alvorlige spørsmål om hvor AI henter dataene den gjenbruker.
Utgiver Pain Point
INMAs Peter Bale påpeker at bekymringen for utgivere er todelt når det kommer til søkeintegrerte LLM-er - attribusjoner og null-klikk-søk.
Utgivere er oppe i armene med utsiktene til generativ AI som samler kunnskap på nettet for å lage samtalesvar som ikke siterer hvor denne informasjonen kom fra. Som Bale påpeker, reiser dette noen alvorlige spørsmål om "opphavsrett, vilkår, nøyaktighet, så vel som det store spørsmålet om betaling".
Samtidig er det en reell bekymring for at søkeintegrert AI vil forverre problemet med null-klikk-søk. Det er her brukeren får svaret fra en Google-søkefunksjon – for eksempel en fremhevet kodebit – uten å måtte klikke på et søkeresultat.
Wired har allerede rapportert om hvordan Bing- chatboten var i stand til å titte bak Wirecutters målte betalingsmur og gi gratis tilgang til innholdet. Wired bemerket at utgivere vurderte "om de skulle slå tilbake mot Microsoft".
Trafikk gir inntekter. Ja, det er mer komplisert enn som så, men ikke mye. Velg en inntektsgenereringsmodell, og på slutten av dagen fungerer den enten eller ikke basert på hvor mange som lander på nettstedet ditt.
Det var litt over et år siden jeg skrev om hvordan News Showcase var Googles svar på det globale regulatoriske presset for at både det og Facebook skulle betale for å linke til nyhetsartikler.
Fremstøtet i Europa har ført til at Google ikke bare signerer News Showcase-avtaler med utgivere (som har blitt forfulgt av kritikk over mangelen på åpenhet), men også lansert et nytt automatisert lisensieringsverktøy kalt Extended News Previews (ENP) Program, som nå er en del av Google Search Console.
Til slutt kan utgivere ende opp med å føle at de må slå tilbake på søkeintegrerte LLM-er for å beskytte innholdet deres mot å bli kannibalisert. Om det er gjennom lobbyvirksomhet for reguleringsendringer eller søksmål gjenstår å se.
Gitt regjeringers beryktede kamp for å holde seg à jour med tekniske endringer, ikke bli overrasket om det tar år før vi ser noen meningsfulle reguleringsendringer på denne fronten.
AI-vegger
Med dette i tankene spurte jeg State of Digital Publishings (SODP) tekniske og nyhets SEO-leder, Mahendra Choudhary, hvordan han så for seg at utgivere kunne reagere. Choudhary foreslo at større nyhetsutgivere – og på et tidspunkt vertsleverandører/til og med Internett-leverandører – ville begynne å blokkere AI-roboter fra å skanne nettstedet deres.
Choudhary sa: "Ingen vil at innholdet deres skal gjenbrukes av AI gratis. Men nyhetsutgivere vil enten belaste disse AI-ene for å gjennomsøke dataene deres eller forhindre dem i å gjennomsøke nettstedene deres i utgangspunktet. Dette vil gjøre AI-resultatene overflødige og frustrerende."
Innhold fra våre partnere
Han påpekte at Google har flere roboter for hvert segment av resultater - søk, nyheter, bilder, osv. - og bruker sannsynligvis data fra alle disse robotene for sin Bard AI-chatbot. ChatGPT lener seg i mellomtiden mest på CCBot .
Choudhary sa: "Til slutt vil alle AI-verktøy som skanner dataene måtte publisere botsnavn og IP-området de bruker for å skanne nettet, på samme måte som Google og andre søkemotorer gjør. Dette vil bety at nettutgivere kan blokkere dem hvis de ønsker det.»
Mens han erkjente sannsynligheten for at CTR-er for disse nettstedene opplever noe av en nedgang i trafikken, hevdet han at det var usannsynlig å gjøre mye av en bulk. Han bemerket at etter lanseringen av funksjoner som førte til null klikk-søk, "fant utgivere fortsatt klikk".