Journalist hier die over AI schrijft. Ik volg AI-nauwkeurigheidsproblemen nu een jaar.
Iets wat veel mensen niet beseffen:
AI-hallucinaties zijn niet willekeurig. Ze volgen patronen op basis van wat er in trainingsdata staat. Als er tegenstrijdige informatie over je bedrijf online staat, zal AI soms “gemiddelden” tussen bronnen, waardoor hybride feiten ontstaan die deels waar en deels verzonnen zijn.
Voorbeeld dat ik documenteerde:
Bedrijf A nam in 2023 de productlijn van bedrijf B over. AI schrijft nu soms functies van bedrijf B toe aan bedrijf A, en andersom. De modellen halen twee aparte producten door elkaar omdat het nieuws beide samen noemde.
Voor de OP:
De prijs-hallucinatie ($99 vs $29) kan terug te voeren zijn op een oude prijspagina, een concurrent met vergelijkbare prijzen, of een externe vergelijking met verkeerde info. Het is de moeite waard de bron uit te zoeken.