Notebookcheck Logo

Onderzoek ontdekt: Gebruikers zijn de echte oorzaak van AI-hallucinaties

Volgens een nieuw onderzoek worden AI-hallucinaties beïnvloed door de manier waarop gebruikers communiceren. (Afbeeldingsbron: Pexels/Ketut Subiyanto)
Volgens een nieuw onderzoek worden AI-hallucinaties beïnvloed door de manier waarop gebruikers communiceren. (Afbeeldingsbron: Pexels/Ketut Subiyanto)
Uit een onlangs gepubliceerd onderzoek blijkt dat de prompts die aan AI-assistenten worden gegeven een grote rol spelen bij het optreden van zogenaamde AI-hallucinaties. Dit is goed nieuws voor gebruikers, omdat het suggereert dat ze valse of verzonnen antwoorden actief kunnen verminderen door een effectiever promptontwerp.

Fictieve feiten, verzonnen citaten of bronnen die volledig verzonnen lijken - AI kan ongelooflijk nuttig zijn, maar draagt nog steeds het risico van hallucinaties in zich. Volgens onderzoekers van OpenAI is een sleutelfactor een eenvoudig beloningsmechanisme dat de AI aanmoedigt om gissingen te doen. Een studie op https://www.arxiv.org/pdf/2510.02645 gepubliceerd op 3 oktober op arXiv.org suggereert ook dat gebruikers zelf een rol kunnen spelen bij het opwekken van deze hallucinaties.

De studie getiteld "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" suggereert dat veel van de zogenaamde AI-hallucinaties kunnen voortkomen uit de manier waarop gebruikers communiceren. Onderzoekers analyseerden meer dan 13.000 gesprekken tussen mensen en 1.357 echte interacties tussen mensen en AI-chatbots. De bevindingen tonen aan dat gebruikers de neiging hebben om heel anders te schrijven wanneer ze met AI's praten - berichten zijn korter, minder grammaticaal, minder beleefd en gebruiken een beperktere woordenschat. Deze verschillen kunnen van invloed zijn op hoe duidelijk en zelfverzekerd taalmodellen reageren.

De analyse richtte zich op zes linguïstische dimensies, waaronder grammatica, beleefdheid, woordenschat en informatie-inhoud. Hoewel de grammatica en beleefdheid meer dan 5% en 14% hoger waren in conversaties tussen mensen, bleef de feitelijk overgebrachte informatie vrijwel identiek. Met andere woorden, gebruikers delen dezelfde inhoud met AI's - maar op een merkbaar hardere toon.

De onderzoekers noemen dit een "stijlverschuiving" Aangezien grote taalmodellen zoals ChatGPT of Claude getraind zijn op goed gestructureerde en beleefde taal, kan een plotselinge verandering in toon of stijl verkeerde interpretaties of verzonnen details veroorzaken. Met andere woorden, AI's hebben meer kans om te hallucineren als ze onduidelijke, onbeleefde of slecht geschreven input ontvangen.

Mogelijke oplossingen aan zowel de AI- als de gebruikerskant

Als AI-modellen worden getraind om met een breder scala aan taalstijlen om te gaan, verbetert hun vermogen om de bedoeling van gebruikers te begrijpen - met minstens 3%, volgens het onderzoek. De onderzoekers testten ook een tweede aanpak: het automatisch parafraseren van gebruikersinvoer in realtime. Dit verminderde de prestaties echter enigszins, omdat emotionele en contextuele nuances vaak verloren gingen. Daarom raden de auteurs aan om van stijlbewuste training een nieuwe standaard te maken in de fijnafstemming van AI.

Als u wilt dat uw AI-assistent minder verzonnen antwoorden geeft, stelt het onderzoek voor om hem meer als een mens te behandelen - door in volledige zinnen te schrijven, de juiste grammatica te gebruiken, een duidelijke stijl aan te houden en een beleefde toon aan te slaan.

Bron(nen)

Arxiv.org (Studie / PDF)

Afbeeldingsbron: Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2025 10 > Onderzoek ontdekt: Gebruikers zijn de echte oorzaak van AI-hallucinaties
Marius Müller, 2025-10-18 (Update: 2025-10-18)