Discussion News Publishers AI Training Data

Har noen andre lagt merke til hvor mye AI-plattformer er avhengige av nyhetsutgivere? Lisensdramaet blir helt vilt

ME
MediaWatch_Sarah · Digital mediestrateg
· · 127 upvotes · 11 comments
MS
MediaWatch_Sarah
Digital mediestrateg · 13. januar 2026

Har jobbet med digital media i 8 år, og forholdet mellom nyhetsutgivere og AI er det mest fascinerende skiftet jeg har sett.

Dette legger jeg merke til:

  • Store utgivere inngår avtaler – NYT fikk 20–25 millioner dollar årlig fra Amazon, News Corp sikret seg ca. 50 millioner dollar
  • Attribusjon er helt tilfeldig – Noen AI-plattformer siterer kilder konsekvent, andre bryr seg ikke
  • Trafikken blir kannibalisert – AI oppsummerer artiklene våre så brukerne aldri klikker seg videre

Spørsmålene som holder meg våken om natten:

  • Er disse lisensavtalene egentlig verdt det for utgiverne?
  • Hvordan kan mindre nyhetsredaksjoner konkurrere når de ikke kan forhandle store avtaler?
  • Finnes det noen måte å spore om innholdet vårt faktisk blir sitert riktig?

Er det andre i mediebransjen som opplever dette? Wikimedia Foundation sa at AI bokstavelig talt ikke kan eksistere uten menneskeskapt innhold som nyhetsartikler. Men får vi rettferdig kompensasjon?

11 comments

11 kommentarer

J
JournalistJake Ekspert Senioredaktør, stor nyhetsredaksjon · 10. januar 2026

Jeg står midt oppi dette i en stor publikasjon. La meg dele hva som egentlig skjer bak kulissene.

Lisensforhandlingene er brutale:

  • AI-selskaper ville først ha alt gratis
  • Utgivere måtte true med søksmål for å få noen kompensasjon
  • Selv de “store avtalene” er småpenger sammenlignet med hva disse selskapene tjener

Dette har endret seg:

  • Vi har nå et team dedikert til AI-synlighetsoptimalisering
  • Innholdsstrategien vår vurderer eksplisitt “hvordan vil AI oppsummere dette?”
  • Vi sporer hvilke artikler som blir sitert i ChatGPT-svar

Feilraten på 60 % i AI-generert innhold som Tow Center fant? Den er reell. Jeg har sett rapporteringen vår bli feilattribuert, feilsitert og noen ganger fullstendig fabrikkert med vårt navn under.

Vi bruker Am I Cited for å overvåke dette nå. Uten verktøy for sporing er du blind for hvordan innholdet ditt brukes.

L
LocalNewsAdvocate · 10. januar 2026
Replying to JournalistJake

Dette traff meg. Jeg jobber for en regional avis og vi får aldri de der 20 millioner-dollar-avtalene.

Men her er tingen – AI-modeller behandler lokalaviser likt med de store når det gjelder relevans. Det som teller er tematisk autoritet og aktualitet.

Vi har faktisk sett FLERE AI-sitater på hyperlokalt innhold fordi det er mindre konkurranse. Når noen spør om “beste restauranter i [byen vår]”, er vi ofte den eneste pålitelige kilden.

Små utgivere må virkelig satse på sin lokale spisskompetanse. Det er vår forsvarsmur.

AE
AI_Ethics_Researcher AI-etikkstipendiat · 10. januar 2026

La meg legge til et akademisk perspektiv her.

Det grunnleggende problemet:

Nyhetsutgivere har skapt treningsdata verdt milliarder av dollar. AI-selskaper brukte det. Nå er det de samme AI-selskapene som forstyrrer utgivernes forretningsmodell.

Tallene forteller historien:

  • AI-boter økte Wikipedia-båndbredde med 50 % siden januar 2024
  • De dyreste forespørslene (65 %) kommer fra AI-crawlere
  • Utgivere rapporterer 15–30 % trafikkfall på grunn av AI-oppsummeringer

Hva som må skje:

  1. Obligatoriske attribusjonsstandarder (som CC-BY-SA krever)
  2. Inntektsdeling for bruk av treningsdata
  3. Infrastruktur for sanntidssporing av sitater

Wikimedia Foundation slår tilbake. Nyhetsutgivere bør gjøre det samme. Argumentet om at “AI ikke kan eksistere uten menneskeskapt innhold” er bokstavelig sant.

SC
SEOtoAIO_Convert Ekspert · 9. januar 2026

Jeg kommer fra SEO-verdenen og har måttet tenke helt nytt om nyhetsinnhold.

Den gamle oppskriften:

  • Optimalisere for Google-rangeringer
  • Få featured snippets
  • Drive trafikk via søk

Den nye virkeligheten:

  • Optimalisere for AI-sitater
  • Bli inkludert i AI-oppsummeringer
  • Synlighet betyr noe selv uten klikk

Dette fungerer faktisk for nyhetsinnhold i AI:

  1. Tydelige, strukturerte overskrifter – AI-systemer tolker disse lett
  2. Omvendt pyramide – Viktig info først, AI vektlegger første 50 ord tungt
  3. Ekspertsitater med attribusjon – AI elsker siterbare kilder
  4. Faktiske, verifiserbare påstander – AI-systemer krysssjekker

Utgiverne som vinner, kjemper ikke mot AI – de tilpasser innholdsstrategien sin.

PM
PRPro_Michael VP kommunikasjon · 9. januar 2026

Fra PR-siden endrer dette alt i medierelasjoner.

Gammelt mål: Få dekning i store medier for merkevaretroverdighet

Nytt mål: Få dekning som AI vil sitere når noen spør om bransjen vår

Jeg stiller nå andre spørsmål før jeg pitcher:

  • Blir denne publikasjonen sitert av AI-plattformer?
  • Vil denne sakstrukturen fungere for AI-oppsummering?
  • Er journalistens byline autoritativ i dette feltet?

Vi har begynt å spore presseomtale i AI-svar med overvåkningsverktøy. Det er oppsiktsvekkende – noen ganger får mindre bransjemedier flere AI-sitater enn de store.

ROI-beregningen for PR er fundamentalt endret.

C
ContentStrategyQueen · 9. januar 2026

Jobber med innholdsstrategi for en B2B-publikasjon. Her er våre data:

Hva som blir sitert i AI (ut fra vår analyse):

  • Omfattende bransjerapporter: 45 % siteringsrate
  • Nyheter med original rapportering: 38 %
  • Ekspertkommentarer og analyser: 32 %
  • Generiske nyhetsomskrivinger: 8 %

Mønsteret er tydelig – original rapportering vinner. AI-systemer ser ut til å oppdage og foretrekke primærkilder fremfor syndikert innhold.

Vi har omstrukturert redaksjonskalenderen ut fra dette:

  • Mer egen forskning
  • Dypere ekspertintervjuer
  • Eksklusive data og undersøkelser

Bonusen? Dette gir også bedre resultater for tradisjonell SEO og leserengasjement.

TE
TechReporter_Emma Tech-journalist · 8. januar 2026

Jeg dekker AI til daglig, og ironien er ikke tapt på meg.

Utgivernes dilemma:

  • Blokker AI-crawlere = mist synlighet i AI-søk
  • Tillat AI-crawlere = innholdet brukes uten kompensasjon
  • Saksøk AI-selskaper = dyrt og usikkert utfall

Dette gjør Perplexitys Publisher Program:

  • RAG-teknologi inkluderer utgiverinnhold i sanntid
  • Inntektsdeling når innhold blir sitert
  • Attribusjon med direkte lenker

Dette er en modell som kan fungere. Men ikke alle AI-plattformer spiller etter reglene.

Jeg har brukt Am I Cited for å spore egne bylines på AI-plattformer. Fant artiklene mine sitert flere titalls ganger forrige måned – stort sett uten tydelig attribusjon. Det er dette vi må løse.

N
NewsroomDirector Nyhetsredaktør · 8. januar 2026

Vi innførte en full AI-synlighetsstrategi i fjor. Her er vår oppskrift:

Tekniske endringer:

  • Schema markup på alle artikler (Article, NewsArticle-typer)
  • Korrekt forfatterattribusjon og byline-sider
  • Tydelige publiseringsdatoer og oppdateringstidsstempler

Redaksjonelle endringer:

  • “AI-oppsummering først”-avsnitt – nøkkelinformasjon i de første 50 ordene
  • Flere FAQ-seksjoner som adresserer vanlige spørsmål
  • Eksplisitte faktapåstander med kilder

Resultater etter 6 måneder:

  • 40 % økning i AI-plattformsitater
  • Litt nedgang i direkte trafikk (forventet)
  • Høyere engasjement fra trafikken vi får

Trafikkvaliteten teller. Brukere som klikker seg videre fra AI-oppsummeringer vet allerede hva de vil ha – konverteringsraten er høyere.

MS
MediaWatch_Sarah OP Digital mediestrateg · 8. januar 2026

Denne tråden er akkurat det jeg trengte. Viktige læringspunkter:

For utgivere:

  1. Original rapportering > syndikert innhold for AI-sitater
  2. Strukturér innhold for AI-lesing (første 50 ord er viktige)
  3. Spor din AI-synlighet – du kan ikke forbedre det du ikke måler
  4. Mindre aktører kan vinne på lokal/niche autoritet

For merkevarer som jobber med utgivere:

  1. Velg publikasjoner som blir sitert av AI-plattformer
  2. Sakstruktur betyr mye for AI-oppsummering
  3. Ekspertsitater og attribusjon øker sjansen for sitat

Mine tiltak:

  • Sette opp Am I Cited-overvåkning for våre publikasjoner
  • Gjennomgå innholdsstrukturen mot AI-best practice
  • Begynne å spore siteringsmønstre på ChatGPT, Perplexity og Google AI

Lisensavtalene er kun et utgangspunkt. Den virkelige konkurransen handler om hvem som blir sitert i AI-svar.

Have a Question About This Topic?

Get personalized help from our team. We'll respond within 24 hours.

Frequently Asked Questions

Hvorfor er nyhetsutgivere så viktige for AI-treningsdata?
Nyhetsutgivere leverer innhold av høy kvalitet, faktasjekket og profesjonelt redigert som AI-modeller er avhengige av for nøyaktig informasjon. Deres innhold inkluderer verifiserte fakta, ekspertuttalelser og strukturert rapportering som hjelper AI-systemer å forstå nyhetsbildet og gi pålitelige svar.
Hvordan kompenserer AI-selskaper nyhetsutgivere?
AI-selskaper forhandler lisensavtaler med utgivere, fra engangsutbetalinger på 20-50 millioner dollar årlig for tilgang til treningsdata til bruksbaserte modeller hvor utgivere tjener inntekter når innholdet deres siteres i AI-svar. Eksempler inkluderer Amazons avtale med NYT og Perplexitys Publisher Program.
Blir nyhetsartikler faktisk sitert i AI-svar?
Ja, men siteringsraten varierer mellom plattformene. ChatGPT siterer Wikipedia oftest (7,8 %), mens Perplexity legger vekt på kildeattribusjon med direkte lenker til originalartikler. Google AI Overviews integrerer nyhetsinnhold med andre søkeresultater.

Overvåk din nyhetsdekning i AI

Spor hvordan ditt nyhetsinnhold og pressemeldinger vises i AI-genererte svar på ChatGPT, Perplexity, Google AI Overviews og Claude.

Lær mer