El sentimiento sobre la IA generativa está experimentando una corrección de rumbo a raíz de los pasos en falso de Google y Microsoft en la implementación de LLM.
Los editores ahora están abordando las implicaciones del mundo real de una herramienta que puede generar montones de copias en un abrir y cerrar de ojos para usuarios con muy poca experiencia en escritura. Están aumentando las preocupaciones sobre una avalancha de historias escritas por IA de baja calidad que inundan los escritorios de presentación. Otros, mientras tanto, están haciendo preguntas serias sobre dónde obtiene la IA los datos que está reutilizando.
Punto de dolor del editor
Peter Bale de INMA señala que la preocupación de los editores es doble cuando se trata de LLM integrados en la búsqueda: atribuciones y búsquedas sin clic.
Los editores están en pie de guerra ante la perspectiva de que la IA generativa agregue conocimiento en la web para crear respuestas conversacionales que no citen de dónde proviene esa información. Como señala Bale, esto plantea serias dudas sobre “los derechos de autor, los términos, la precisión, así como la gran cuestión del pago”.
Al mismo tiempo, existe una preocupación real de que la IA integrada en la búsqueda exacerbe el problema de las búsquedas sin clic. Aquí es donde el usuario obtiene su respuesta de una función de búsqueda de Google, como un fragmento destacado, sin necesidad de hacer clic en un resultado de búsqueda.
Wired ya informó sobre cómo el chatbot de Bing pudo mirar detrás del muro de pago medido de Wirecutter y brindar acceso gratuito al contenido. Wired señaló que los editores estaban sopesando "si contraatacar a Microsoft".
El tráfico impulsa los ingresos. Sí, es más complicado que eso, pero no por mucho. Elija un modelo de monetización y, al final del día, funciona o no en función de cuántas personas lleguen a su sitio.
Hace poco más de un año escribí sobre cómo News Showcase fue la respuesta de Google al impulso regulatorio global para que tanto él como Facebook paguen por vincular artículos de noticias.
El impulso en Europa ha visto a Google no solo firmar acuerdos de News Showcase con editores (que han sido perseguidos por críticas sobre la falta de transparencia), sino también lanzar una nueva herramienta de licencias automatizadas llamada Extended News Previews (ENP), que ahora es parte de la consola de búsqueda de Google.
Al final, los editores pueden terminar sintiendo que necesitan contraatacar a los LLM integrados en la búsqueda para proteger su contenido de ser canibalizado. Queda por ver si eso es a través de cabildeo por cambios regulatorios o demandas.
Sin embargo, dada la notoria lucha de los gobiernos para mantenerse al tanto de los cambios tecnológicos, no se sorprenda si pasan años antes de que veamos cambios regulatorios significativos en este frente.
AI-Paredes
Con esto en mente, le pregunté de State of Digital Publishing (SODP) , Mahendra Choudhary, cómo imaginó que los editores podrían responder. Choudhary sugirió que los editores de noticias más grandes, y en algún momento los proveedores de alojamiento e incluso los ISP, comenzarían a bloquear los bots de IA para que no escaneen su sitio.
Choudhary dijo: “Nadie quiere que la IA reutilice su contenido de forma gratuita. Pero los editores de noticias cobrarán a estas IA por rastrear sus datos o evitarán que rastreen sus sitios en primer lugar. Esto hará que los resultados de la IA sean redundantes y frustrantes”.
Contenido de nuestros socios
Señaló que Google tiene múltiples bots para cada segmento de resultados (búsqueda, noticias, imágenes, etc.) y probablemente esté usando datos de todos estos bots para su chatbot Bard AI. Mientras tanto, ChatGPT se apoya principalmente en CCBot .
Choudhary dijo: “Eventualmente, todas las herramientas de inteligencia artificial que escanean los datos tendrán que publicar abiertamente los nombres de sus bots y el rango de IP que usan para escanear la web, de manera similar a como lo hacen Google y otros motores de búsqueda. Esto significará que los editores web pueden bloquearlos si así lo desean".
Si bien reconoció la probabilidad de que los CTR de estos sitios web experimenten una caída en el tráfico, argumentó que era poco probable que hiciera mella. Señaló que después del lanzamiento de las funciones que generaban búsquedas con cero clics, "los editores seguían ganando clics".