
Van gegevens naar waanvoorstellingen: Hoe AI-hallucinaties eigenlijk gebeuren
Darryl Linington (vertaald door Ninh Duy) Gepubliceerd 🇺🇸 🇪🇸 ...
Wat is een hallucinatie? In AI-termen, in ieder geval
Het zit zo. U vraagt uw chatbot iets. Hij geeft u een antwoord dat slim klinkt, alle juiste woorden gebruikt en er zelfs een paar citaten bij gooit. Dan zoekt u het op en het is complete fictie.
Welkom in de wondere wereld van AI-hallucinaties.
Dit is geen fout. Het is niet uw fout. En nee, de AI "probeert niet te liegen" Het doet gewoon... waarvoor het ontworpen is: woorden aan elkaar rijgen die statistisch gezien naast elkaar lijken te horen. Dat is het.
Het is niet "denken." Het speelt mad libs.
Deze taalmodellen - ChatGPT, Claude, Gemini, allemaal - begrijpen geen feiten. Ze weten helemaal niets. Ze hebben miljarden woorden gelezen en nu spelen ze dit eindeloze spel van autoaanvullen. Dat is echt alles wat ze doen.
Dus wat gebeurt er als er een gat zit in wat ze tijdens de training hebben "gezien"? Dan gokken ze. Soms wild. Maar altijd vol vertrouwen.
Dit is hoe het er onder de motorkap aan toe gaat
Grote taalmodellen (LLM's) worden getraind op duizelingwekkende hoeveelheden tekst - denk aan boeken, websites, Reddit rants, academische tijdschriften, allemaal samengeperst in een blender. Het model "onthoudt" deze informatie niet zoals wij dat doen. In plaats daarvan leert het patronen: welke woorden hebben de neiging om andere woorden op te volgen, welke concepten komen vaak samen voor, welke zinsstructuren zien er "correct" uit, enzovoort.
Wanneer u een prompt typt, begint het model te voorspellen, één token (stukje van een woord) per keer. Het plant geen paragraaf en controleert niet of wat er gezegd wordt feitelijk is. Het probeert een statistisch waarschijnlijke reactie aan elkaar te rijgen... geen bewustzijn, geen controle, geen geweten.
Als de trainingsgegevens uw vraag niet goed dekken - of wel, maar het model "herinnert" het zich niet helemaal - dan wordt het lastig. Het kan beginnen met het afleiden van het antwoord op basis van gelijk klinkende dingen. Zie het als autocomplete op steroïden, alleen maar verbanden uitvinden.
Voorbeeld? Als u naar een rechtszaak vraagt die bekend klinkt, kan het model details van soortgelijke zaken die het tijdens de training heeft gezien, gaan mengen. Plotseling krijgt u een Frankenstein-uitspraak van een rechter die niet bestaat over een wet die nooit aangenomen is.
Het probleem? Het weet niet dat het fout is. Het was niet gebouwd om dat te weten. Het is gebouwd om te raden.
Enkele veel voorkomende manieren waarop dit ontspoort:
- Er zijn niet genoeg gegevens over het onderwerp → AI vult de lege plekken op met onzin.
- U stelt het een vage of ingewikkelde vraag → het verzint een schoon klinkend antwoord om behulpzaam te lijken.
- Het wil slim klinken → dus bootst het de manier na waarop slimme mensen schrijven, zelfs als het alles verzint.
- Het heeft een miljoen citaten gezien → dus formatteert het nepcitaten prachtig.
Dit is niet hypothetisch - mensen hebben zich gebrandmerkt
U hebt dit waarschijnlijk al in actie gezien. Maar zo niet, dan ziet u hier hoe het eruit ziet:
- Valse academische studies: Ziet er echt uit. Heeft auteurs, een titel, een tijdschrift. Bestaat niet.
- Denkbeeldige rechtszaken: Echte advocaten hebben deze ingediend in dossiers. Rechters waren... niet enthousiast.
- Verzonnen medisch advies: De bot zou u kunnen vertellen dat boerenkool een wisselwerking heeft met ibuprofen. Dat is niet zo. (Waarschijnlijk niet.)
En ja, mensen geloven deze dingen. Omdat het goed klinkt. Dat is de valkuil.
Het kan u zelfs misleiden
En hier is de echte kick: als u terugduwt? Vraagt u: "Weet u het zeker?" De AI zou wel eens kunnen verdubbelen. Herformuleer de leugen. Verzachten. Een andere valse bron aanhalen. Het is niet kwaadaardig, het weet letterlijk niet beter. Het denkt: "Oh, u wilt een beter klinkende versie van die laatste hallucinatie? Zeg maar niets meer."
Welkom bij de gaslight parade, nu met citaten.
Wat wordt er aan gedaan (behalve handjeklap)?
Om eerlijk te zijn, proberen ontwikkelaars het op te lossen. Niemand wil dat hun tool bekend staat om het zelfverzekerd verkondigen van leugens. Dit is wat er aan de hand is:
1. Human-in-the-loop training (RLHF)
Het komt erop neer dat echte mensen feedback geven op de antwoorden van de AI en ze een score geven zoals slechte Yelp-recensies. Helpt, soort van.
2. De AI dingen laten "opzoeken" (RAG)
In plaats van alleen op het geheugen te vertrouwen, halen sommige modellen nu gegevens live van Wikipedia of kennisbanken. Het is alsof u de stagiair internettoegang geeft in plaats van hem te laten raden.
3. Toevoegingen voor feitencontrole
Sommige platforms zetten er feitencheckers op of weigeren te antwoorden als de AI het niet zeker weet. Dit is nieuw en nog steeds een beetje hit-or-miss.
4. Slimmere prompts = minder BS
Als u een duidelijke, specifieke vraag stelt, heeft u minder kans op AI-improvisatietheater. Voorbeeld: "Geef me vijf peer-reviewed bronnen over de voordelen van drakenfruit" is beter dan "Is drakenfruit gezond?"
5. Vertrouwensfilters
Sommige AI's zullen nu "Dat weet ik niet zeker" zeggen in plaats van iets te verzinnen. Wat eerlijk gezegd een opluchting is.
Waarom dit niet gewoon een grappige gril is
Deze dingen zijn belangrijk. Een hallucinatie in een informeel gesprek is prima. Maar in de rechtszaal? In een redactiekamer? In een ziekenhuis? Dat is een puinhoop.
Stelt u zich eens voor dat een student wordt gemarkeerd voor plagiaat omdat de AI een bron heeft verzonnen. Of een patiënt die slecht advies krijgt. Of een zakelijke beslissing die wordt genomen op basis van statistieken die de bot uit de lucht heeft geplukt.
Deze modellen worden ingebouwd in zoekmachines en zakelijke tools. Het risico is er al.
Slotwoord
Kijk, AI is geweldig. Het kan u helpen brainstormen, samenvatten, herschrijven, vertalen... noem maar op. Maar vergeet nooit dat het niet weet wat het zegt. Het wil gewoon overtuigend klinken.
Als u een glad pratende vreemdeling in een bar die "eens iets gelezen heeft" niet zou vertrouwen, vertrouw dan ook niet blindelings op uw chatbot.
Gebruik hem. Maar controleer alles op feiten. Altijd.
Want als hij het fout heeft, zal hij niet aarzelen. Hij zal gewoon een lachende Emoji laten horen en verder praten.
Bron(nen)
Eigen onderzoek en ervaring
Afbeeldingsbron: Valeria Nikitina - Unsplash
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon