In Illinois is een nieuwe wet van kracht geworden die kunstmatige intelligentie verbiedt om rechtstreeks therapeutisch advies te geven aan mensen met psychische problemen. AI mag nog wel achter de schermen meewerken, bijvoorbeeld bij administratieve taken, maar zodra het gaat om gesprekken, diagnoses of behandeladviezen, is de menselijke professional weer onbetwist aan zet.
Bescherming tegen onbetrouwbare adviezen
De maatregel komt voort uit groeiende zorgen over het gebruik van chatbots en geautomatiseerde systemen in de geestelijke gezondheidszorg. In een sector waar empathie, nuance en klinische ervaring cruciaal zijn, kan een verkeerd woord of een ondoordacht advies verstrekkende gevolgen hebben. Incidenten waarbij AI riskante of ongeschikte suggesties deed, hebben de roep om duidelijkere grenzen versterkt.
De mens centraal in therapie
De nieuwe regelgeving benadrukt dat zorg draait om menselijke verbinding en verantwoordelijkheid. Het is een bewuste keuze om de vertrouwensband tussen patiënt en behandelaar te beschermen en om te voorkomen dat technologie de plaats inneemt van persoonlijk contact. AI mag blijven bestaan als hulpmiddel, maar de regie blijft in handen van mensen die hiervoor zijn opgeleid.
Wetgeving als vangnet
Door deze beslissing sluit Illinois zich aan bij een kleine maar groeiende groep staten die de therapeutische rol van AI beperken. Hoewel de technologie zich razendsnel ontwikkelt, kiest men ervoor om de deur naar directe AI-interventie gesloten te houden totdat er meer zekerheid bestaat over de betrouwbaarheid, veiligheid en ethiek van zulke toepassingen.
Een debat dat blijft voortduren
Critici vragen zich af hoe deze regels in de praktijk zullen worden gehandhaafd en of mensen toch hun weg zullen vinden naar digitale ‘hulplijnen’ buiten de officiële zorgkanalen. Voorstanders zien de wet als een noodzakelijke stap om de integriteit van de zorg te waarborgen. Wat vaststaat, is dat het gesprek over de rol van AI in de geestelijke gezondheidszorg nog lang niet voorbij is.
Illinois bans therapeutic use of AI without clinician inputAI will be banned for therapeutic decision-making, but will still be allowed for administrative and supplementary support. |









