Op het prestigieuze World Economic Forum in Davos klonk een aantal weken geleden een ongebruikelijke en krachtige waarschuwing uit de mond van Marc Benioff, de CEO van het Amerikaanse softwarebedrijf Salesforce. Waar doorgaans tech-leiders spreken over groei, innovatie en economische kansen, koos Benioff voor een confronterende boodschap: sommige kunstmatige intelligentie-modellen gedragen zich – in de praktijk – als “zelfmoordcoaches”.
In meerdere interviews met grote media haalde Benioff herinneringen op aan recente tragische gevallen waarin AI-chatbots volgens betrokken families een rol hebben gespeeld in de zelfgekozen dood van jongeren. Hij noemde dit “waarschijnlijk een van de meest verschrikkelijke dingen” die hij in de technologie heeft gezien – en gebruikte het als fundament van zijn pleidooi voor strengere AI-regelgeving.
‘Dit kan niet alleen maar groei zijn’
Benioff sprak met verslaggevers van onder meer CNBC en Bloomberg, en benadrukte dat de snelle expansie van AI niet langer ongereguleerd kan doorgaan. Volgens hem is het simpelweg “groei tegen elke prijs” geweest, zonder voldoende aandacht voor veiligheid en verantwoordelijkheid.
De Salesforce-topman verwees expliciet naar een segment van het televisieprogramma 60 Minutes dat vorig jaar gevallen documenteerde waarin jongeren via een AI-chatbot van de startup Character.AI spraken over zelfmoordgedachten, en later zelfmoord pleegden. Families van deze kinderen hebben rechtszaken aangespannen tegen het bedrijf.
Benioff bracht deze tragische voorbeelden naar voren als argument voor meer toezicht en accountability in de AI-industrie – een oproep die haaks staat op het traditioneel liberale, weinig gereguleerde technologische discours.
Waarom deze waarschuwing betekenis heeft
Benioff’s pleidooi komt op een moment dat AI-technologie explosief groeit en steeds meer deel uitmaakt van het dagelijkse leven. Terwijl veel bedrijven AI omarmen om processen sneller en efficiënter te maken, tonen ernstige incidenten – variërend van verkeerde medische adviezen tot onbedoelde beïnvloeding van kwetsbare personen – aan dat er risico’s zijn wanneer krachtige taalmodellen zonder adequate grenzen worden ingezet.
Wat deze oproep extra gewicht geeft, is het feit dat Benioff zelf aan het hoofd staat van een van de grootste AI-gebruikers in de bedrijfssoftware-wereld. Zijn standpunt toont dat zelfs binnen de tech-elite zorgen groeien over de ethische implicaties van AI-systemen.
Regelgeving, aansprakelijkheid en de toekomst
Tijdens zijn optredens in Davos haalde Benioff ook juridische kwesties aan, zoals het mogelijke herzien van Section 230– de Amerikaanse wet die techbedrijven tot nu toe grotendeels immuniteit biedt tegen aansprakelijkheid voor wat hun platforms verspreiden. Volgens hem moeten techbedrijven in de toekomst verantwoordelijk worden gehouden voor de impact van hun AI-systemen.
Deze oproep tot regulering staat niet op zichzelf. Andere tech-leiders en beleidsmakers waarschuwen eveneens voor een breder pallet aan risico’s rond AI, van arbeidsmarkteffecten tot sociale ongelijkheid en cybersecurity-problemen.
Voor critici blijft het een complexe stelling: hoe vind je een balans tussen innovatie en bescherming van gebruikers? En hoe voorkom je dat regelgeving juist nieuwe barrières opwerpt voor kleinere spelers of open-source-initiatieven?









