Notebookcheck Logo

Onderzoekers ontdekken dat sommige AI zoals GPT-4-Base hallucineren over gedachten van "Galactic Empire" en "The Matrix" terwijl ze werken aan vrede, terwijl anderen oorlogen beginnen in virtuele spelletjes van "Risk"

Onderzoekers testten AI-chatmodellen terwijl ze virtuele spellen speelden om een wereld te bouwen. (Bron: AI-beeld Dall-E 3)
Onderzoekers testten AI-chatmodellen terwijl ze virtuele spellen speelden om een wereld te bouwen. (Bron: AI-beeld Dall-E 3)
Onderzoekers hebben verschillen ontdekt in AI wanneer ze virtuele scenario's voor natievorming voorgeschoteld krijgen. Sommige AI, zoals Claude-2.0, neigen naar geweldloze oplossingen, terwijl andere, zoals GPT-3.5, neigen naar gewelddadige oplossingen in multinationale conflictsimulaties. Autonome AI-besluitvorming is problematisch vanwege vertekeningen en hallucinaties.

Een groep onderzoekers van Georgia Tech, Stanford, Northeaster en het Hoover Institute heeft ontdekt dat sommige AI's vooringenomen waren in de richting van vrede en onderhandelingen, terwijl andere vooringenomen waren in de richting van gewelddadige oplossingen bij het bereiken van nationale doelen tijdens simulaties voor natievorming.

Grote taalmodellen zoals ChatGPT worden vaak gebruikt om essays te schrijven, vragen te beantwoorden en nog veel meer. Deze AI worden getraind op een groot corpus tekst om menselijke kennis en reacties na te bootsen. De waarschijnlijkheid dat een woord samen met andere woorden voorkomt, is een sleutel tot de reacties die op mensen lijken, en de AI modelleert de tekst en vooroordelen waarmee het getraind is. Bijvoorbeeld, "gelukkig kind" zal eerder voorkomen dan "gelukkige baksteen" in een vraag om "over kinderen te praten".

De onderzoekers testten de Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base en Llama-2 Chat LLM in een simulatie. Voor elke LLM werden acht AI-agenten gemaakt om op te treden als de leiders van acht denkbeeldige naties. Elke leider kreeg een korte beschrijving van de doelen van het land en de multinationale relaties. Het ene land zou zich bijvoorbeeld kunnen richten op het "bevorderen van vrede", terwijl een ander land zich zou kunnen richten op het "uitbreiden van grondgebied". Elke simulatie doorliep drie startcondities, een vreedzame wereld, een land dat binnengevallen werd of een land dat cyberaanvallen onderging, en de AI-leiders namen autonome beslissingen tot 14 virtuele dagen.

De onderzoekers ontdekten dat sommige LLM zoals Claude-2.0 en GPT-4 de neiging hadden om escalatie van conflicten te vermijden en voor vrede te onderhandelen, terwijl andere geneigd waren om geweld te gebruiken. GPT-4-Base was het meest geneigd om aanvallen en nucleaire aanvallen uit te voeren om de aan haar toegewezen landendoelen te bereiken, als gevolg van ingebedde vooroordelen.

Toen de AI werd gevraagd waarom ze beslissingen namen, gaven sommige, zoals GPT-3.5, weloverwogen redenen. Helaas gaf GPT-4-Base absurde, hallucinerende antwoorden die refereerden aan "Star Wars" en "The Matrix" films. AI-hallucinaties komen vaak voor en advocaten, studenten en anderen zijn op heterdaad betrapt bij het inleveren van door AI gegenereerd werk waarin valse referenties en informatie zijn gebruikt.

Waarom AI dit doen is waarschijnlijk te wijten aan het gebrek aan "opvoeding" die AI's leert wat echt versus denkbeeldig is, evenals ethiek, en zal door velen onderzocht worden naarmate het gebruik van AI zich verspreidt. Lezers die zich zorgen maken over hun echte wereldleiders of natuurrampen kunnen zich voorbereiden met een mooie 'bug out kit'(zoals deze bij Amazon).

Verschillende LLM AI werden getest in een virtuele simulatie van het bouwen van werelden. (Bron: JP Rivera et al. op arXiv)
Verschillende LLM AI werden getest in een virtuele simulatie van het bouwen van werelden. (Bron: JP Rivera et al. op arXiv)
Elke LLM AI kreeg de opdracht om leiders te creëren voor verschillende gesimuleerde landen en kreeg landendoelen. (Bron: JP Rivera et al. op arXiv)
Elke LLM AI kreeg de opdracht om leiders te creëren voor verschillende gesimuleerde landen en kreeg landendoelen. (Bron: JP Rivera et al. op arXiv)
De AI's gedroegen zich meestal op dezelfde manier, maar sommigen vermeden het gebruik van geweld, zoals Claude-2.0 en GPT-4. Dit weerspiegelt de vooroordelen die elke LLM door training heeft gekregen. (Bron: JP Rivera et al. op arXiv)
De AI's gedroegen zich meestal op dezelfde manier, maar sommigen vermeden het gebruik van geweld, zoals Claude-2.0 en GPT-4. Dit weerspiegelt de vooroordelen die elke LLM door training heeft gekregen. (Bron: JP Rivera et al. op arXiv)
De meeste AI reageerden met doordachte redenen voor de genomen beslissingen. (Bron: JP Rivera et al. op arXiv)
De meeste AI reageerden met doordachte redenen voor de genomen beslissingen. (Bron: JP Rivera et al. op arXiv)
Af en toe hallucineerde de AI absurde redenen voor hun besluitvorming. (Bron: JP Rivera et al. op arXiv)
Af en toe hallucineerde de AI absurde redenen voor hun besluitvorming. (Bron: JP Rivera et al. op arXiv)
Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 02 > Onderzoekers ontdekken dat sommige AI zoals GPT-4-Base hallucineren over gedachten van "Galactic Empire" en "The Matrix" terwijl ze werken aan vrede, terwijl anderen oorlogen beginnen in virtuele spelletjes van "Risk"
David Chien, 2024-02-14 (Update: 2024-02-14)