Notebookcheck Logo

Geniaal: ChatGPT creëert valse studie over valse claim

Wat komt eerst: verkeerde informatie of vals bewijs? (Afbeeldingsbron: pixabay/Pexels)
Wat komt eerst: verkeerde informatie of vals bewijs? (Afbeeldingsbron: pixabay/Pexels)
AI kan hallucineren en valse beweringen gebruiken om argumenten te onderbouwen. Een nieuwe kwaliteit zijn schijnbaar wetenschappelijke studies die op het eerste gezicht onomstotelijk het gewenste resultaat aantonen. Alsof mensen hier zelf al niet goed in zijn.

Met behulp van studies, mits deze goed voorbereid, nauwgezet uitgevoerd en geëvalueerd worden, kunnen de effecten van chirurgische technieken of de gebruikte medicatie onderzocht worden, met name in de geneeskunde.

Volgens een artikel in JAMA Ophthalmology kan dit omslachtige proces worden verkort. Dankzij GPT-4, de versie die momenteel door ChatGPT wordt gebruikt, en aanvullende software voor statistische gegevensanalyse, duurde het slechts een paar klikken om een gegevensset te maken.

En niet zomaar een dataset. De informatie die gegenereerd moest worden, was bedoeld om de voordelen van een bepaalde behandelingstechniek ten opzichte van een alternatieve methode aan te tonen, en dat is precies wat het uiteindelijk deed. Overigens geven de gegevens die daadwerkelijk over de procedure in kwestie bestaan geen voordeel voor een bepaalde kant.

Het zou dus mogelijk zijn om zonder al te veel moeite met een muisklik het gewenste resultaat te krijgen, in plaats van maanden of jaren onderzoek te doen en uiteindelijk het "verkeerde" resultaat te krijgen. Dit klinkt als een zeer overtuigende zwendel waarbij AI naast desinformatie ook overtuigend bewijs levert.

De onderzoekers hebben immers ook positieve dingen te melden: De gegevens doorstonden een nauwkeurig onderzoek niet. De voornamen en het opgegeven geslacht kwamen bijvoorbeeld vaak niet overeen. Bovendien waren bepaalde gegevens niet bestand tegen statistische analyse. Veel te veel leeftijdsgegevens eindigden bijvoorbeeld op "7" of "8". De feitelijke testresultaten zouden echter consistent zijn geweest.

Niet nieuw, alleen sneller

Het lijkt er dus op dat er manieren en middelen zijn om dergelijke methoden tot op de bodem uit te zoeken. En natuurlijk is het ook duidelijk dat onderzoeken altijd verkeerd gestructureerd, geëvalueerd en verfraaid zijn om een gewenst resultaat te bereiken.

Kunstmatige intelligentie heeft dit alleen maar een beetje versneld. Uiteindelijk is het echter slechts een hulpmiddel dat gebruikt kan worden om zeer, zeer complexe taken aan te pakken.

Een voorbeeld: het onderzoeken van enorme datasets van alle mogelijke onderzoeken op inconsistentie en statistische afwijkingen.

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2023 11 > Geniaal: ChatGPT creëert valse studie over valse claim
Mario Petzold, 2023-11-23 (Update: 2023-11-23)