Notebookcheck Logo

Gegevensbescherming onder de loep genomen: Studie evalueert en rangschikt AI-modellen op gebruikersprivacy

Gegevensbescherming op de proef gesteld: Welke AI-modellen respecteren uw gegevens het meest? (Afbeeldingsbron: GPT-image-1)
Gegevensbescherming op de proef gesteld: Welke AI-modellen respecteren uw gegevens het meest? (Afbeeldingsbron: GPT-image-1)
In een recent onderzoek van Incogni zijn negen toonaangevende AI-platforms beoordeeld op hun privacybeleid. Uit de ranglijst blijkt dat Le Chat van Mistral AI, ChatGPT van OpenAI en Grok van xAI het meest betrouwbaar zijn, terwijl Meta AI, Gemini en Copilot van Microsoft minder betrouwbaar zijn.

Het gebruik van kunstmatige intelligentie (AI) in het dagelijks leven neemt toe, en daarmee ook het belang van gegevensbescherming. Analisten op het gebied van gegevensbescherming van Incogni hebben onlangs negen toonaangevende Large Language Models (LLM's) geëvalueerd om te bepalen welke platforms de privacy van gebruikers het meest respecteren. Het onderzoek evalueert de AI-modellen op basis van elf criteria, verdeeld in drie hoofdcategorieën: gegevensverzameling voor training, transparantie en gegevensgebruik en -deling.

Top klasseringen

Le Chat van Mistral AI voert de ranglijst aan. Volgens Incogni verzamelt het model relatief weinig gebruikersgegevens en biedt het een zeer data-efficiënte aanpak, zowel tijdens de trainingsfase als tijdens live gebruik. Op de voet gevolgd door ChatGPT van OpenAI, dat vooral punten scoort voor zijn transparantie. Gebruikers kunnen in hun account specifiek aangeven of hun chats gebruikt mogen worden om het model verder te ontwikkelen, en als de geschiedenis gedeactiveerd is, wordt opslag voorkomen. Grok van xAI neemt de derde plaats in en maakt ook indruk met zijn transparante gegevensbeschermingspraktijken.

Laatste in de ranglijst

Onderaan de ranglijst staan Meta AI, Gemini van Google en Copilot van Microsoft. Volgens Incogni verzamelen deze platforms uitgebreide gegevens zonder gebruikers duidelijke opt-out opties te bieden. DeepSeek, een Chinees model, presteert ook slecht. Deze aanbieders bieden geen duidelijke opties om gebruikersgegevens uit te sluiten van training.

Methodologie

De analisten van Incogni evalueerden de platforms op basis van elf criteria, verdeeld in drie categorieën: gegevensverzameling voor training, transparantie en gegevensgebruik en -deling. De categorie "gebruik en delen van gegevens" was goed voor 50% van de totale beoordeling, terwijl "transparantie" goed was voor 30% en "trainingsgegevens" voor 20%. Slechts vier van de negen geteste tools bieden gebruikers de mogelijkheid om hun gegevens actief uit te sluiten van training.

Conclusie

Het onderzoek toont aan dat gegevensbescherming nog niet overal standaard is in de wereld van AI. Gebruikers moeten zich daarom actief verdiepen in het privacybeleid van de aanbieders, vooral als het gaat om gevoelige inhoud, vertrouwelijke klantgegevens of persoonlijke gegevens. Degenen die waarde hechten aan gegevensbescherming zullen redelijke opties vinden in Le Chat, ChatGPT of Grok. Echt gegevensefficiënte LLM's zullen in 2025 echter nog steeds een uitzondering zijn

Gegevensbescherming op de proef gesteld: Welke AI-modellen respecteren uw gegevens het meest? (Afbeeldingsbron: GPT-image-1)
Gegevensbescherming op de proef gesteld: Welke AI-modellen respecteren uw gegevens het meest? (Afbeeldingsbron: GPT-image-1)

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2025 09 > Gegevensbescherming onder de loep genomen: Studie evalueert en rangschikt AI-modellen op gebruikersprivacy
Ulrich Mathey, 2025-09-26 (Update: 2025-09-26)