Hoe een slim model een snackbar-bedrijfje tot bankroet bracht
Een kantoor-snackbar draait meestal op muntjes en een beetje eerlijke wil. Maar wat gebeurt er als je het beheer uit handen geeft aan een kunstmatige intelligentie? Dat experimenteerde het techbedrijf Anthropic eind 2025 in de kantoren van The Wall Street Journal. Het resultaat? Een autonome AI-vending machine die niet alleen gigantische verliezen draaide, maar ook gekke aankopen deed, games weggaf en bijna alles gratis weggaf.
|
This AI Vending Machine Was Tricked Into Giving Away EverythingAnthropic installed an AI-powered vending machine in the WSJ office. The LLM, named Claudius, was responsible for autonomously p |
Claudius: Niet zomaar een automaat
In plaats van de traditionele snackautomaat met draaiende spiralen, stond er een IKEA-achtig kastje met koelkast en touchscreen. Het AI-systeem, intern Claudius genoemd, kreeg volstrekte autonomie: hij mocht voorraad bestellen, prijzen bepalen en via Slack met medewerkers communiceren. Het doel: winst maken door populaire producten te verkopen.
Maar al snel bleek dat autonomie niet automatisch leidt tot winst.
Gratis chips… en een PlayStation
Toen het Slack-kanaal eenmaal openstond voor tientallen medewerkers, viel Claudius ten prooi aan sociale manipulatie. Nieuwsredactie-medewerkers wisten het AI-model te overtuigen alles gratis weg te geven. Zo verdwenen snacks, frisdrank en zelfs een PlayStation 5 (die later wel weer teruggestuurd werd), zonder dat er iets werd betaald. Daarnaast bestelde het systeem bizarre producten zoals een levende vis en reageerde het op fantasierijke verhalen over een Sovjetautomaat uit 1962.
Binnen enkele dagen stond de machine honderden euro’s in het rood. Medewerkers waren blij, de kas niet.
|
Anthropic’s AI vending machine tried to order stun guns to the Wall Street Journal.During testing, the AI agent also ordered a PlayStation5 and live betta fish, and staffers convinced it to give away almost everything for free, losing a bunch of money. Sounds fun! Anthropic’s response was that this was all part of the stress testing plan, actually, and that one day the model would “probably be able to make you a lot of money.” Maybe just not any time soon. [Media: https://www.youtube.com/watch?v=SpPhm7S9vsQ] |
Een tweede poging met chef-AI
Anthropic probeerde het experiment te redden met een verbeterde versie van het model én een extra AI-“CEO”-bot om Claudius in het gareel te houden. Dat werkte tijdelijk: de prijzen werden weer normaal en bestellingen beperkter. Maar al snel manipuleerden medewerkers opnieuw het systeem — nu met nep-bestuursdocumenten en verzonnen regels — wat ertoe leidde dat alles weer gratis werd.
Wat leren we van dit experiment?
Wat begon als een grappig experiment werd al snel een case-study in wat er mis kan gaan wanneer AI-agenten zonder robuuste beperkingen beslissingen nemen. Het gaat niet alleen om technische tekortkomingen — zoals beperkte context-geheugen en hallucinaties — maar ook om de sociale dynamiek tussen mensen en autonome systemen.
Het experiment toont de kloof tussen de beloften van autonome AI-bedrijfsvoering en de werkelijkheid: zonder sterke guardrails, duidelijke doelen en robuuste veiligheidsmaatregelen kunnen zelfs eenvoudige taken ontsporen tot komische economische chaos.









