Jeg skal prøve å forklare dette uten sjargong. Slik fungerer LLM-er egentlig:
Hovedideen:
LLM-er har ikke en database med svar. De er enorme mønstergjenkjenningsmaskiner som har lært fra milliarder av teksteksempler.
Tenk på det slik: hvis du har lest tusenvis av matoppskrifter, kan du sannsynligvis skrive en ny som høres plausibel ut. Du kopierer ikke en spesifikk oppskrift – du har lært mønstre om hvordan oppskrifter fungerer.
Slik fungerer svargenereringen:
- Du stiller et spørsmål – “Hva er den beste CRM-en for små bedrifter?”
- Modellen deler dette opp i tokens – små tekstbiter
- Den forutsier hvilken tekst som bør komme neste – basert på mønstre fra treningen
- Den genererer ett token om gangen – til svaret er komplett
Så hvor passer innholdet ditt inn?
To veier:
Vei 1: Treningsdata
Innholdet ditt kan ha vært med da modellen ble trent. I så fall lærte modellen mønstre fra det. Men den “husker” ikke innholdet ditt spesifikt – den har absorbert mønstre om hvilke kilder som er autoritative for hvilke temaer.
Vei 2: Live-henting (RAG)
Nyere systemer kan søke på nettet i sanntid, finne relevant innhold og bruke det til å generere svar. Dette er hvordan Perplexity fungerer og hvordan ChatGPT Browse fungerer.
Hovedpoenget: LLM-er lærer hvilke kilder som vanligvis dukker opp for hvilke temaer, og de gjenskaper disse mønstrene.