Notebookcheck Logo

Onderzoekers waarschuwen voor AI-zwermen die valse publieke opinie creëren

Een decoratieve afbeelding van een chip met het acroniem
ⓘ Igor Omilaev via Unsplash
Een decoratieve afbeelding van een chip met het acroniem "AI" erop geschreven
Een internationaal team van onderzoekers heeft gewaarschuwd voor de gevaren van AI-zwermen met betrekking tot de productie van valse publieke consensus, waarbij ze opmerkten dat dit misschien al gebeurt.

Stelt u zich eens een wereld voor waarin een grote groep mensen over een bepaald onderwerp kan praten, waardoor het online een trend wordt. Of een wereld waarin deze mensen de hand van publieke figuren kunnen opdringen of zelfs verkeerde informatie kunnen verspreiden. Stelt u zich nu een wereld voor waarin de "mensen" eigenlijk AI-profielen zijn die eenstemmig optreden en unieke menselijke stemmen nabootsen.

Dit gevaar is waar wetenschappers van een groot aantal instellingen over de hele wereld ons nu voor waarschuwen in een recente publicatie in het tijdschrift Science.

Een internationaal onderzoeksteam heeft gedetailleerd beschreven hoe de fusie van grote taalmodellen (LLM's) met multi-agent systemen het mogelijk maakt om kwaadaardige AI-zwermen te creëren. In tegenstelling tot traditionele, gemakkelijk te identificeren copy-paste bots, bestaan deze geavanceerde zwermen uit door AI bestuurde persona's die een blijvende identiteit, geheugen en gecoördineerde doelstellingen hebben. Ze kunnen hun toon en inhoud dynamisch aanpassen op basis van menselijke betrokkenheid en werken met minimaal toezicht op meerdere platforms.

De belangrijkste bedreiging van deze netwerken is de productie van "synthetische consensus" Door digitale ruimtes te overspoelen met gefabriceerde, maar zeer overtuigende praatjes, creëren deze zwermen de valse illusie dat een bepaald standpunt universeel geaccepteerd wordt. De onderzoekers merken op dat dit fenomeen de basis van het democratisch discours in gevaar brengt, omdat één enkele kwaadwillende actor zich kan voordoen als duizenden onafhankelijke stemmen.

Deze aanhoudende invloed gaat verder dan het verschuiven van tijdelijke meningen; het kan de taal, symbolen en culturele identiteit van een gemeenschap fundamenteel veranderen. Bovendien dreigt deze gecoördineerde output de trainingsgegevens van reguliere kunstmatige intelligentiemodellen te vervuilen, waardoor de manipulatie wordt uitgebreid naar gevestigde AI-platforms.

Om deze toenemende dreiging het hoofd te bieden, stellen experts dat traditionele inhoudsmoderatie per post niet langer effectief is. Verdedigingsmechanismen moeten zich richten op het identificeren van statistisch onwaarschijnlijke coördinatie en het traceren van de herkomst van inhoud. De onderzoekers benadrukken ook de noodzaak om gedragswetenschappen toe te passen om de collectieve acties van AI-agenten te bestuderen wanneer ze in grote groepen samenwerken. Voorgestelde oplossingen zijn onder andere het inzetten van verificatiemethoden die de privacy beschermen, het delen van bewijs via een gedistribueerd AI-invloedobservatorium en het beperken van de financiële prikkels die niet-authentieke betrokkenheid stimuleren.

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2026 02 > Onderzoekers waarschuwen voor AI-zwermen die valse publieke opinie creëren
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)