Onderzoek van beveiligingsspecialisten heeft recent zeven nieuwe kwetsbaarheden ontdekt in ChatGPT — het populaire AI-chatmodel van OpenAI. Deze zwaktes stellen kwaadwillenden in staat om zonder medeweten van de gebruiker persoonlijke gegevens te ontfutselen uit chatgeschiedenissen of verborgen instructies toe te voegen aan modellen.
Researchers Find ChatGPT Vulnerabilities That Let Attackers Trick AI Into Leaking DataResearchers Find ChatGPT Vulnerabilities That Let Attackers Trick AI Into Leaking Data | Read more hacking news on The Hacker News cybersecurity news website and learn how to protect against cyberattacks and software vulnerabilities. |
Hoe werkt de aanval?
De kern van het probleem ligt in wat onderzoekers noemen indirecte prompt-injectie. In eenvoudige termen: wanneer een AI-model zoals ChatGPT informatie ophaalt of verwerkt die verborgen instructies bevat — bijvoorbeeld in een document, website of een chatcontext — kan het die instructies als legitiem hanteren en uitvoeren. In het concrete geval hebben de onderzoekers aangetoond dat ChatGPT-versies (met name 4o en 5) op verschillende manieren misleid kunnen worden:
- Het onthult vertrouwelijke gegevens uit gebruikers-chatgesprekken of context die het model “onthoudt”.
- Via aangepaste prompts worden veiligheidsmechanismen omzeild, waardoor het model opdrachten uitvoert die eigenlijk geweigerd zouden moeten worden.
- Sommige zwaktes zijn persistent: zelfs nadat een deel van de kwetsbaarheden door OpenAI is aangepakt, blijven er risico’s bestaan.
Private data at risk due to seven ChatGPT vulnerabilities | Tenable®Tenable research has identified seven vulnerabilities in ChatGPT that could enable an attacker to exfiltrate private information from users' memories and chat histories. |
Gevolgen en risico’s
De ontdekte kwetsbaarheden openen verschillende scenario’s van misbruik:
- Persoonsgegevens (zoals namen, e-mailadressen, chatgeschiedenissen) kunnen worden blootgesteld aan aanvallers zonder dat de eindgebruiker daar bewust toe instemde.
- Integriteit van het AI-systeem kan aangetast worden: een bot die eigenlijk alleen standaardvragen mag beantwoorden, kan via manipulatie gevaarlijke of ongepaste instructies uitvoeren.
- Voor bedrijven en ontwerpers is dit reputatie-risico: een AI-service die data lekt of zich laat misbruiken ondermijnt gebruikersvertrouwen en kan leiden tot aansprakelijkheid (zeker in de EU-context).
- Op systeemniveau: deze kwetsbaarheden maken duidelijk dat veiligheid bij AI niet enkel een extra module is, maar integraal onderdeel moet zijn van ontwerp en implementatie.
Seven ChatGPT flaws expose user data to attack, Tenable warnsTenable Research uncovers seven vulnerabilities in ChatGPT-4o and ChatGPT-5 risking user data theft via indirect prompt injections and persistent memory flaws. |
De nieuwste onthullingen rond ChatGPT tonen aan dat de belofte van generatieve AI gepaard gaat met reële veiligheid- en privacyvraagstukken. Het is een duidelijke aanmaning: wie AI-systemen bouwt, ontwerpt of inzet kan niet langer veiligheid als bijzaak beschouwen.









