In recent onderzoek van Microsoft komt een verontrustende trend aan het licht: een groot deel van de Britse werknemers maakt op eigen houtje gebruik van AI-tools zonder toestemming van hun werkgever. Deze ongecontroleerde adoptie — ook wel “Shadow AI” genoemd — werpt vragen op over dataprivacy, beveiliging en de toekomst van AI-beheer op de werkvloer.
Ongeoorloofd AI-gebruik op de werkvloer: een groeiend verschijnsel
Uit het rapport blijkt dat 71% van de werknemers in het Verenigd Koninkrijk ooit een consumentgerichte AI-tool heeft ingezet voor werkgerelateerde taken — en meer dan 51% doet dit wekelijks. Deze tools worden onder meer gebruikt om:
- zakelijke communicatie te schrijven of te beantwoorden (49%)
- rapporten, presentaties en andere documenten op te stellen (40%)
- financiële handelingen uit te voeren (22%)
De aantrekkingskracht is begrijpelijk: veel werknemers zijn vertrouwd met deze AI-tools in hun privéleven (41%) en geven aan dat hun organisatie geen goedgekeurd alternatief aanbiedt (28%).
|
Rise in ‘Shadow AI’ tools raising security concerns for UKNew Microsoft research reveals that 71% of UK employees have used unapproved consumer AI tools at work, and 51% continue to do so every week, raising concerns of a growing risk to the privacy and security of UK organisations. |
Productiviteitswinst tegenover beveiligingsrisico’s
Volgens het onderzoek rapporteert een gemiddelde werknemer dat hij of zij 7,75 uur per week bespaart dankzij dergelijke AI-assistenten. In nationale schaal vertaalt zich dit naar 12,1 miljard uren per jaar, wat Microsoft schat op een equivalent van zo’n £208 miljard waarde in tijd.
Toch is het enthousiasme opvallend: slechts 32% van de respondenten maakt zich zorgen over de privacy van de gegevens die in zulke tools worden gevoerd, en slechts 29% vreest voor de beveiliging van hun IT-systemen. Die lage risicobesef vormt een kernprobleem — vooral omdat Shadow AI tools vaak buiten de controle van de IT-afdeling werken en gevoelige data kunnen blootstellen aan lekken, compliance-problemen of cyberaanvallen.
De opkomst van optimisme ten opzichte van AI
Tegelijkertijd verandert het sentiment rond AI op de werkvloer. In januari 2025 gaf nog 44% van de werknemers aan niet te weten waar te beginnen met AI; in oktober was dat percentage gedaald tot 36%. Ook het inzicht in de bedrijfsstrategie rond AI groeit: waar slechts 24% van de werknemers in januari aangaf te begrijpen waarom hun organisatie AI gebruikt, is dat nu 43%. Meer dan de helft (57%) beschrijft zijn houding tegenover AI nu als optimistisch, enthousiast of zelfverzekerd.
Waarom bedrijven wakker moeten worden
Darren Hardman, CEO van Microsoft UK & Ireland, waarschuwt: “Werknemers omarmen AI als nooit tevoren, wat nieuwe niveaus van productiviteit en creativiteit ontsluit. Maar enthousiasme alleen is niet voldoende. Bedrijven moeten ervoor zorgen dat de AI-tools die worden gebruikt écht geschikt zijn voor de werkvloer — niet alleen voor thuisgebruik.”
Het gevaar van Shadow AI zit hem vooral in het gebrek aan controle: organisaties lopen het risico op datalekken, overtreding van regelgeving en verhoogde blootstelling aan cyberaanvallen. Als werknemers vertrouwelijke klantdata, bedrijfsgeheimen of financiële gegevens invoeren in een ongecontroleerde AI-tool, dan kan die informatie onverwacht ‘terugkomen’ via het generatieve model.
A new wave of 'Shadow AI' is worrying workplacesUnsanctioned AI is a double-edged sword |
Weg vooruit: Sturen op veilige adoptie
Als organisaties effectief willen inspelen op deze ontwikkeling, zijn een paar stappen essentieel:
- Heldere AI-beleidslijnen en governance: vastleggen wélke tools zijn toegestaan, welke data erin mogen en onder welke voorwaarden.
- Educatie en bewustwording: werknemers moeten weten wat de gevaren zijn van het werken met externe AI-tools zonder toezicht.
- Veilige, bedrijfsgoedgekeurde alternatieven bieden: als medewerkers worden voorzien van betrouwbare AI-oplossingen, daalt de drang om zelf onofficiële tools te zoeken.
- Monitoren en controleren: zicht op wie welke AI gebruikt, welke data wordt verwerkt, en of er verdachte patronen ontstaan.
- Samenwerking tussen beveiliging en AI-teams: integratie van beveiliging (zero trust, identity management) en AI-strategie is cruciaal.









