Den opprinnelige ideen for verdensveven dukket opp i en byge av vitenskapelige tanker rundt slutten av andre verdenskrig. Det begynte med en hypotetisk maskin kalt "memex", foreslått av US Office of Scientific Research and Development-sjef Vannevar Bush i en artikkel med tittelen As We May Think , publisert i Atlantic Monthly i 1945.
Memexen ville hjelpe oss å få tilgang til all kunnskap, øyeblikkelig og fra pultene våre. Den hadde en søkbar indeks, og dokumenter ble koblet sammen av "sporene" laget av brukere når de assosierte ett dokument med et annet. Bush så for seg memexen ved hjelp av mikrofiche og fotografi, men konseptuelt var det nesten det moderne internett.
Den sanne verdien i denne tidlige ideen var koblingene: Hvis du ønsket å utforske mer, var det en enkel, innebygd måte å gjøre det på. Alle som har brukt timer på å følge tilfeldige lenker på Wikipedia og lære om ting de aldri visste interesserte dem, vil kjenne igjen denne verdien. (Det finnes selvfølgelig en Wikipedia-side om dette fenomenet.)
Linker har gjort nettet til det det er. Men ettersom sosiale medieplattformer, generative AI-verktøy og til og med søkemotorer prøver hardere å holde brukere på nettstedet eller appen deres, begynner den ydmyke lenken å se ut som en truet art.
Lovene om lenker
Moderne søkemotorer ble utviklet i skyggen av memex, men først møtte de uventede juridiske problemer. I de tidlige dagene av internett var det ikke klart om det å "gjennomsøke" nettsider for å ta dem inn i en søkemotorindeks var et brudd på opphavsretten.
Det var heller ikke klart om søkemotorer eller nettstedverter var «utgivere» ved å lenke til informasjon som kan hjelpe noen med å bygge en bombe, svindle noen eller utføre annen ond aktivitet. Å være utgivere vil gjøre dem juridisk ansvarlige for innhold de er vert for eller koblet til.
Spørsmålet om webcrawling har blitt håndtert av en kombinasjon av rimelig bruk, landsspesifikke unntak for crawling og "safe harbour"-bestemmelsene i US Digital Millenium Copyright Act . Disse tillater nettgjennomgang så lenge søkemotorene ikke endrer det originale verket, lenker til det, bare bruker det i en relativt kort periode og ikke tjener på det originale innholdet.
Spørsmålet om problematisk innhold ble behandlet (i det minste i den svært innflytelsesrike amerikanske jurisdiksjonen) via lovgivning kalt Section 230 . Dette gir immunitet til "leverandører eller brukere av interaktive datatjenester" som leverer informasjon "levert av en annen innholdsleverandør".
kunne ikke internett slik vi kjenner det , fordi det er umulig å manuelt sjekke hver side som er lenket til eller alle sosiale medier-innlegg for ulovlig innhold.
Dette betyr imidlertid ikke at internett er et komplett ville vesten. Seksjon 230 har blitt utfordret på grunnlag av ulovlig diskriminering , da et obligatorisk spørreskjema om bolig ba om rase. Nylig en sak anlagt mot TikTok antydet at plattformer ikke er immune når algoritmene deres anbefaler spesifikke videoer.
Nettets sosiale kontrakt svikter
Alle lovene som har skapt internett, har imidlertid basert seg på lenker. Den sosiale kontrakten er at en søkemotor kan skrape nettstedet ditt, eller et sosialt medieselskap kan være vert for ordene eller bildene dine, så lenge de gir deg, personen som opprettet det, kreditt (eller miskreditere hvis du gir dårlige råd) . Linken er ikke bare det du følger ned i et Wikipedia-kaninhull, det er en måte å gi kreditt på og la innholdsskapere tjene på innholdet deres.
Store plattformer, inkludert Google , Microsoft og OpenAI , har brukt disse lovene, og den sosiale kontrakten de innebærer, for å fortsette å innta innhold i industriell skala.
Tildelingen av lenker, øyeepler og kreditt faller ettersom AI ikke kobler til kildene. For å ta ett eksempel, har nyhetsutdrag gitt i søkemotorer og sosiale medier fortrengt de originale artiklene så mye at teknologiske plattformer nå må betale for disse utdragene i Australia og Canada .
Store teknologiselskaper verdsetter å holde folk på nettstedene sine, ettersom klikk kan tjene penger ved å selge personlig tilpassede annonser.
Et annet problem med AI er at den vanligvis lærer på nytt sjelden og holder på datert innhold. Mens de nyeste AI-drevne søkeverktøyene hevder å gjøre det bedre på denne fronten, er det uklart hvor gode de er.
Og, som med nyhetsutdrag, er store bedrifter motvillige til å gi kreditt og synspunkter til andre. Det er gode menneskesentrerte grunner til at sosiale mediebedrifter og søkemotorer vil at du skal slippe å forlate. En nøkkelverdi av ChatGPT er å gi informasjon i en enkelt, komprimert form, slik at du aldri trenger å klikke på en lenke – selv om en er tilgjengelig.
Opphavsrett og kreativitet
Men er sidelinjen av lenker en god ting? Mange eksperter hevder ikke.
Å bruke innhold uten kreditt er uten tvil opphavsrettsbrudd . Å erstatte kunstnere og forfattere med AI reduserer kreativiteten i samfunnet .
Innhold fra våre partnere
Å oppsummere informasjon, uten å koble ut til originale kilder, reduserer folks evne til å sjekke fakta, er utsatt for skjevhet og kan redusere læringen, tanken og kreativiteten som støttes av å bla gjennom mange dokumenter. Tross alt ville Wikipedia ikke vært morsomt uten kaninhullet, og internett uten lenker er bare en nettbok skrevet av en robot.
AI-tilbakeslag truer
Så hva bringer fremtiden? Ironisk nok har de samme AI-systemene som har gjort koblingsproblemet verre også økt sannsynligheten for at ting vil endre seg.
Opphavsrettsunntakene som gjelder for gjennomgang og kobling, blir utfordret av reklamer hvis arbeid er innlemmet i AI-modeller. Foreslåtte endringer i § 230-loven kan bety at digitale plattformer er tryggere å koble til materiale enn å kopiere det.
Vi har også makt til å endre: der lenker finnes, klikk på dem. Du vet aldri hvor du kan følge en sti.
Vamsi Kanuri, førsteamanuensis i markedsføring, University of Notre Dame .
Denne artikkelen er publisert på nytt fra The Conversation under en Creative Commons-lisens. Les originalartikkelen .