Ang damdamin sa pagbuo ng AI ay nakararanas ng pagwawasto ng kurso pagkatapos ng mga maling hakbang ng Google at Microsoft sa pagpapatupad ng mga LLM.
Tinatalakay na ngayon ng mga publisher ang totoong mundo na mga implikasyon ng isang tool na maaaring maglabas ng maraming kopya sa isang kisap-mata para sa mga user na may napakakaunting karanasan sa pagsusulat. Dumadami ang mga alalahanin sa baha ng mababang kalidad na mga naisulat na kuwento ng AI na lumulubog sa mga mesa ng pagsusumite. Ang iba, samantala, ay nagtatanong ng mga seryosong tanong tungkol sa kung saan kinukuha ng AI ang data na nire-repurpos nito.
Publisher Pain Point
Itinuturo ni Peter Bale ng INMA na ang pag-aalala para sa mga publisher ay dalawang beses pagdating sa mga LLM na pinagsama-sama sa paghahanap — mga attribution at zero-click na paghahanap.
Ang mga publisher ay nasa armas sa pag-asam ng pagbuo ng AI na pinagsama-samang kaalaman sa web upang lumikha ng mga sagot sa pakikipag-usap na hindi nagbabanggit kung saan nanggaling ang impormasyong iyon. Tulad ng itinuturo ni Bale, ito ay nagtataas ng ilang seryosong tanong tungkol sa "copyright, mga tuntunin, katumpakan, pati na rin ang malaking tanong ng pagbabayad".
Kasabay nito, may tunay na pag-aalala na ang AI na pinagsama-sama sa paghahanap ay magpapalala sa isyu ng mga zero-click na paghahanap. Dito nakukuha ng user ang kanilang sagot mula sa isang feature ng Google Search — gaya ng featured snippet — nang hindi kinakailangang mag-click sa resulta ng paghahanap.
Naiulat na ni Wired ang tungkol sa kung paano nagawang sumilip ng Bing chatbot sa likod ng metered paywall ng Wirecutter at magbigay ng libreng access sa nilalaman. Sinabi ni Wired na ang mga publisher ay tumitimbang "kung sasalungat sa Microsoft".
Nagdudulot ng kita ang trapiko. Oo, ito ay mas kumplikado kaysa doon, ngunit hindi gaanong. Pumili ng modelo ng monetization at, sa pagtatapos ng araw, ito ay gumagana o hindi batay sa kung gaano karaming tao ang napunta sa iyong site.
Mahigit isang taon lang ang nakalipas isinulat ko ang tungkol sa kung paano naging sagot ng Google ang News Showcase sa pandaigdigang pagtulak ng regulasyon para pareho ito at ang Facebook na magbayad para mag-link sa mga artikulo ng balita.
Ang pagtulak sa Europe ay nakita na ang Google ay hindi lamang pumirma ng mga kasunduan sa News Showcase sa mga publisher (na naranasan ng mga kritisismo dahil sa kawalan ng transparency) ngunit naglunsad din ng bagong automated na tool sa paglilisensya na tinatawag na Extended News Previews (ENP) Program, na bahagi na ngayon. ng Google Search Console.
Sa huli, maaaring maramdaman ng mga publisher na kailangan nilang bumawi sa mga LLM na isinama sa paghahanap upang maprotektahan ang kanilang nilalaman mula sa pagiging kanibal. Kung iyon man ay sa pamamagitan ng lobbying para sa pagbabago sa regulasyon o mga demanda ay nananatiling makikita.
Dahil sa kilalang-kilalang pakikibaka ng mga pamahalaan na manatiling abreast sa mga pagbabago sa teknolohiya, huwag magtaka kung aabutin ng maraming taon bago tayo makakita ng anumang makabuluhang pagbabago sa regulasyon sa larangang ito., gayunpaman.
AI-Pader
Sa pag-iisip na ito, tinanong ko ang ng State of Digital Publishing (SODP) , si Mahendra Choudhary, kung paano niya naisip ang mga publisher na maaaring tumugon. Iminungkahi ni Choudhary na ang mas malalaking publisher ng balita — at sa ilang mga punto ay magsisimulang harangan ang mga AI bot sa pag-scan sa kanilang site.
Sinabi ni Choudhary: "Walang sinuman ang nagnanais na ang kanilang nilalaman ay muling gamitin ng AI nang libre. Ngunit sisingilin ng mga publisher ng balita ang mga AI na ito upang i-crawl ang kanilang data o pigilan sila sa pag-crawl sa kanilang mga site sa unang lugar. Gagawin nitong paulit-ulit at nakakadismaya ang mga resulta ng AI."
Nilalaman mula sa aming mga kasosyo
Itinuro niya na ang Google ay may maraming bot para sa bawat segment ng mga resulta — paghahanap, balita, larawan, atbp — at malamang na gumagamit ng data mula sa lahat ng mga bot na ito para sa Bard AI chatbot nito. Samantala, ang ChatGPT ay nakasandal sa CCBot .
Sinabi ni Choudhary: "Sa kalaunan, ang lahat ng mga tool ng AI na nag-scan ng data ay kailangang hayagang i-publish ang kanilang mga pangalan ng bot at ang hanay ng IP na ginagamit nila upang i-scan ang web, katulad ng kung paano ginagawa ng Google at iba pang mga search engine. Nangangahulugan ito na maaaring i-block sila ng mga web publisher kung gusto nila.”
Bagama't kinikilala ang posibilidad ng mga CTR para sa mga website na ito na makaranas ng isang pagbaba ng trapiko, nangatuwiran siya na hindi ito malamang na gumawa ng malaking pinsala. Nabanggit niya na pagkatapos ng paglulunsad ng mga tampok na nagdulot ng zero click na mga paghahanap "nagkakaroon pa rin ng mga pag-click ang mga publisher."