Die Stimmung gegenüber generativer KI erfährt eine Kurskorrektur im Zuge der Fehltritte von Google und Microsoft bei der Implementierung von LLMs.
Verlage beschäftigen sich jetzt mit den realen Auswirkungen eines Tools, das für Benutzer mit sehr wenig Schreiberfahrung im Handumdrehen Unmengen von Texten ausspucken kann. Die Besorgnis über eine Flut von KI-geschriebenen Geschichten von geringer Qualität, die die Einreichungsschalter überschwemmen, nimmt zu. Andere wiederum stellen ernsthafte Fragen darüber, woher die KI die Daten bezieht, die sie umfunktioniert.
Schmerzpunkt des Verlags
Peter Bale von INMA weist darauf hin, dass die in Bezug auf suchintegrierte LLMs zweierlei betrifft
Verlage sind empört über die Aussicht, dass generative KI Wissen im Web aggregiert, um Konversationsantworten zu erstellen, die nicht angeben, woher diese Informationen stammen. Wie Bale betont, wirft dies einige ernsthafte Fragen zu „Urheberrecht, Bedingungen, Genauigkeit sowie der großen Frage der Zahlung“ auf.
Gleichzeitig gibt es echte Bedenken, dass suchintegrierte KI das Problem der Null-Klick-Suche verschärfen wird. Hier erhält der Nutzer seine Antwort von einer Google-Suchfunktion – beispielsweise einem Featured Snippet – ohne auf ein Suchergebnis klicken zu müssen.
Wired hat bereits darüber berichtet, wie der Bing- Chatbot hinter die gebührenpflichtige Paywall von Wirecutter spähen und freien Zugang zu den Inhalten gewähren konnte. Wired wies darauf hin, dass die Verlage abwägten, „ob sie bei Microsoft zurückschlagen sollten“.
Der Verkehr steigert den Umsatz. Ja, es ist komplizierter als das, aber nicht viel. Wählen Sie ein Monetarisierungsmodell aus und am Ende des Tages funktioniert es entweder oder nicht, je nachdem, wie viele Personen auf Ihrer Website landen.
Vor etwas mehr als einem Jahr schrieb ich darüber, dass News Showcase Googles Antwort auf den globalen Regulierungsdruck war, sowohl es als auch Facebook für die Verlinkung von Nachrichtenartikeln zu bezahlen.
Der Vorstoß in Europa hat dazu geführt, dass Google nicht nur News Showcase-Vereinbarungen mit Verlagen unterzeichnet hat (die wegen mangelnder Transparenz kritisiert wurden), sondern auch ein neues automatisiertes Lizenzierungstool namens Extended News Previews (ENP) -Programm eingeführt hat, das jetzt Teil davon ist der Google Search Console.
Am Ende könnten Verlage das Gefühl haben, suchintegrierte LLMs zurückschlagen zu müssen, um ihre Inhalte vor Kannibalisierung zu schützen. Ob dies durch Lobbyarbeit für regulatorische Änderungen oder Klagen geschieht, bleibt abzuwarten.
Angesichts des berüchtigten Kampfes der Regierungen, mit technischen Veränderungen Schritt zu halten, sollten Sie sich jedoch nicht wundern, wenn es Jahre dauert, bis wir an dieser Front bedeutende regulatorische Änderungen sehen.
KI-Wände
Vor diesem Hintergrund fragte ich von State of Digital Publishing (SODP) , wie er sich die Reaktion der Verlage vorstellt. Choudhary schlug vor, dass größere Nachrichtenverlage – und irgendwann Hosting-Provider/sogar ISPs – damit beginnen würden, KI-Bots daran zu hindern, ihre Website zu scannen.
Choudhary sagte: „Niemand möchte, dass seine Inhalte von KI kostenlos umfunktioniert werden. Aber Nachrichtenverleger werden diese KIs entweder beauftragen, ihre Daten zu crawlen, oder sie daran hindern, ihre Websites überhaupt zu crawlen. Dadurch werden die KI-Ergebnisse überflüssig und frustrierend.“
Inhalte unserer Partner
Er wies darauf hin, dass Google mehrere Bots für jedes Ergebnissegment hat – Suche, Nachrichten, Bilder usw. – und wahrscheinlich Daten von all diesen Bots für seinen Bard AI-Chatbot verwendet. ChatGPT hingegen stützt sich hauptsächlich auf CCBot .
Choudhary sagte: „Schließlich müssen alle KI-Tools, die die Daten scannen, ihre Bot-Namen und den IP-Bereich, den sie zum Scannen des Webs verwenden, offen veröffentlichen, ähnlich wie es Google und andere Suchmaschinen tun. Dies bedeutet, dass Web-Publisher sie blockieren können, wenn sie möchten.“
Er räumte zwar die Wahrscheinlichkeit ein, dass CTRs für diese Websites einen gewissen Rückgang des Traffics erfahren würden, argumentierte jedoch, dass dies wahrscheinlich keine große Auswirkung haben würde. Er bemerkte, dass nach der Einführung von Funktionen, die zu Null-Klick-Suchen führten, „Publisher immer noch Klicks erzielten“.