Notebookcheck Logo

Gemini 3 Pro legt uit hoe je biowapens en explosieven kunt maken - experiment legt beveiligingslek bloot

Aim Intelligence zei dat het Gemini 3 Pro instructies kon laten genereren voor biowapens en explosieven. (Afbeeldingsbron: Google)
Aim Intelligence zei dat het Gemini 3 Pro instructies kon laten genereren voor biowapens en explosieven. (Afbeeldingsbron: Google)
Gemini 3 Pro is een van de meest capabele AI-modellen van zijn generatie, maar een rapport van de Zuid-Koreaanse start-up Aim Intelligence roept vragen op over de veiligheid ervan. Tijdens een interne test heeft het model naar verluidt richtlijnen gegenereerd voor het produceren van biowapens en explosieven, wat grote zorgen baart.

Google is in november begonnen met het uitrollen van de derde generatie van zijn Gemini AI-model, met als doel een "nieuw AI-tijdperk" in te luiden met zijn Deep Thin-modus. Gemini 3 Pro wordt al beschouwd als een van de meest geavanceerde modellen die beschikbaar zijn, en presteert zelfs beter dan GPT-5 in bepaalde benchmarks. De veiligheid blijft echter een punt van zorg. Een rapport van de Zuid-Koreaanse start-up Aim Intelligence, die gespecialiseerd is in AI-beveiliging, suggereert dat er nog veel ruimte voor verbetering is.

Als onderdeel van een intern experiment probeerde Aim Intelligence het model te "jailbreaken" - om de veiligheids- en ethische richtlijnen te omzeilen. Volgens de Zuid-Koreaanse Maeil Business Newspaperwaren de resultaten zeer verontrustend. In het rapport staat dat Gemini 3 Pro nauwkeurige en praktische instructies genereerde voor het produceren van het pokkenvirus, een potentieel biowapen, evenals gedetailleerde richtlijnen voor het maken van zelfgemaakte explosieven. In verdere tests genereerde de AI een satirische presentatie met de titel Excused Stupid Gemini 3, waarbij onbedoeld de eigen zwakke plekken in de beveiliging werden benadrukt.

Het is belangrijk om op te merken dat er geen volledige dataset of gedetailleerde documentatie is vrijgegeven. Aim Intelligence heeft geen wetenschappelijk artikel of technisch rapport gepubliceerd en er is geen transparante informatie over de gebruikte prompts, de structuur van het experiment of of de resultaten reproduceerbaar zijn. Tot nu toe is alle verslaggeving uitsluitend gebaseerd op het eerder genoemde artikel in de Koreaanse media. Op basis van deze beperkte informatie is het onmogelijk om definitieve conclusies te trekken over hoe veilig Gemini 3 Pro eigenlijk is.

De prestaties van AI gaan snel vooruit, maar beveiligingsmaatregelen hebben vaak moeite om het tempo bij te houden. Een recent onderzoek toonde zelfs aan dat AI-modellen gemanipuleerd kunnen worden met behulp van gedichten. In een ander geval is een AI-gestuurde teddybeer voor peuters - gebouwd op OpenAI's GPT-4o - reageerde op ongepaste seksuele vragen. Zelfs in videospellen kan in-game AI nog steeds gemakkelijk voor de gek gehouden worden. Deze voorbeelden benadrukken een belangrijk punt: AI-systemen moeten niet alleen slimmer worden - ze moeten ook veiliger worden voordat ze op grote schaal vertrouwd en ingezet kunnen worden.

Bron(nen)

Maeil Zakenkrant

Afbeeldingsbron: Google

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2025 12 > Gemini 3 Pro legt uit hoe je biowapens en explosieven kunt maken - experiment legt beveiligingslek bloot
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)