Raadpleging op automatische pilot: Wat er gebeurde
De recente controverse rond Deloitte barstte los nadat een zorgrapport, besteld door de regering van Newfoundland and Labrador (Canada), – een rapport van circa 1,6 miljoen dollar – bleek te steunen op dubieuze bronnen. Volgens onderzoek van de media blijken minstens vier wetenschappelijke referenties te verwijzen naar artikels en onderzoekers die simpelweg niet bestaan.
Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial government | FortuneIn a healthcare report aimed to address a nurse and doctor shortage, Deloitte cited several fake studies with real researchers’ names attached. |
Wat opviel: onderzoekers wiens namen vermeld zijn in het rapport zeggen zelf nooit zo’n onderzoek te hebben uitgevoerd. In een geval benadrukte één van de zogezegde auteurs dat het werk (een kosten-effectiviteitsstudie rond rurale verpleegkundige retentie) nooit gepubliceerd werd.
Dataluchtkastelen: AI-gegenereerde fouten?
Critici speculeren dat de foutieve citaties het gevolg zijn van het oneigenlijk gebruik van generatieve AI. De vermoedens worden gevoed doordat het patroon van fabrieksmatige referenties sterk lijkt op output van automatisering: correcte authors + Titel + Journal, maar zonder dat er een spoor van het artikel terug te vinden is.
N.L. asks Deloitte to carry out review after 'incorrect' citations found in $1.6M provincial health plan | CBC NewsThe Newfoundland and Labrador government says it's been in contact with the private company responsible for a new report meant to guide the province into the future, which was found to contain fake citations. |
Eerder dit jaar kreeg Deloitte al kritiek na een soortgelijk incident in Australië, waar ook fake citaties werden gevonden in een door de overheid besteld rapport. Toen werd een deel van het honorarium terugbetaald.
Deloitte’s reactie: Correcties, controle en reputatiepolitiek
Deloitte Canada gaf toe dat de vier geciteerde bronnen inderdaad incorrect waren. Ze kondigden een volledige herziening van het rapport aan, maar stellen dat de fundamentele conclusies en aanbevelingen ongewijzigd blijven. Volgens de firma werden de fouten veroorzaakt door "selectief gebruik van AI" — maar er werd benadrukt dat het rapport niet volledig door AI was geschreven.
|
Deloitte makes 'AI mistake' again, this time in report for Canadian government; here's what went wrong - The Times of IndiaTech News News: Deloitte faces scrutiny again after an AI-generated report for the Canadian government contained significant factual errors regarding healthcare servi |
Toch roept de episode vragen op over de kwaliteit van due-diligence, controleprocessen en transparantie bij rapporteringen waar burgers en belastinggeld mee gemoeid zijn.
Gevolgen voor overheid, vertrouwen en AI-ethiek
De mislukte citatiepraktijken ondermijnen het vertrouwen in beleidsrapporten — zeker wanneer zulke rapporten de basis vormen voor beslissingen over personeel, zorgbeleid en publieke uitgaven. Voor overheden is dit een pijnlijke wake-up call: in tijden waarin generatieve AI almaar meer toegepast wordt, zijn strenge kwaliteitscontroles en openheid over werkwijze essentieel.
Analisten waarschuwen dat dit soort fouten het risico verhogen dat beleidsaanbevelingen op grond van misleidende of verzonnen data worden goedgekeurd — met echte gevolgen voor burgers.









