Pokúsim sa to vysvetliť bez žargónu. Takto LLM skutočne fungujú:
Základná myšlienka:
LLM nemajú databázu odpovedí. Sú to obrovské stroje na rozpoznávanie vzorov, ktoré sa učili z miliárd textových príkladov.
Predstavte si to takto: ak ste prečítali tisíce receptov, pravdepodobne by ste dokázali napísať nový, ktorý znie dôveryhodne. Nekopírujete konkrétny recept – naučili ste sa vzory, ako recepty fungujú.
Ako prebieha generovanie odpovede:
- Položíte otázku – „Aké je najlepšie CRM pre malé firmy?“
- Model to rozdelí na tokeny – malé časti textu
- Predikuje, aký text má nasledovať – na základe vzorov z tréningu
- Generuje jeden token za druhým – kým nie je odpoveď kompletná
Kde teda zapadá váš obsah?
Dve cesty:
Cesta 1: Trénovacie dáta
Váš obsah mohol byť zahrnutý pri trénovaní modelu. V takom prípade sa model naučil vzory z neho. Ale „nepamätá si“ váš obsah konkrétne – absorboval vzory o tom, ktoré zdroje sú autoritatívne v ktorých témach.
Cesta 2: Živé vyhľadávanie (RAG)
Novšie systémy dokážu v reálnom čase prehľadávať web, nájsť relevantný obsah a použiť ho na generovanie odpovedí. Takto funguje Perplexity aj ChatGPT Browse.
Kľúčový poznatok: LLM sa učia, ktoré zdroje sa vyskytujú pri ktorých témach, a tieto vzory replikujú.