In het voorjaar van 2024 kreeg Rachael Sawyer, technisch schrijfster uit Texas, een LinkedIn-bericht waarin ze werd uitgenodigd voor een functie met de vage titel “writing analyst”. Haar beeld van de baan kantelde al snel: in plaats van zelf teksten te schrijven, beoordeelde ze wat AI-modellen produceerden. Ze moest inhoud die door tools zoals Google Gemini werd gegenereerd, classificeren, samenvatten, modereren. En soms ging het om extreem of ongewenst materiaal.
Overwerkt, onderbetaald en in het duister
Sawyer is niet de enige. Duizenden zelfstandige AI-inspecteurs – vaak geïmplementeerd via onderaannemers zoals GlobalLogic – werken onder strakke deadlines en met weinig tot geen ondersteuning voor hun psychisch welzijn. Taken waarin ze elke dag tientallen items binnen tijdslimieten moeten beoordelen, leiden tot stress, angstaanvallen en een groot gevoel van onvermogen.
|
How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smartContracted AI raters describe grueling deadlines, poor pay and opacity around work to make chatbots intelligent |
Wie zijn ze en waar werken ze?
Deze evaluators of “raters” zijn meestal goed opgeleid: sommigen zijn leraren, schrijvers, vakmensen met masters of andere specialisaties. Sommige zijn gespecialiseerd, andere krijgen opdrachten als “generalist”. Wat ze gemeen hebben, is dat ze vaak buiten beeld werken, zonder duidelijke informatie over waar hun beoordelingen uiteindelijk voor dienen.
Vergoedingen, veranderingen en machteloosheid
Hoewel het werk in bepaalde freelancegevallen voldoende inkomen kan genereren, gaat het vaak met horten en stoten. Uurtarieven kunnen plots omlaag gaan, opdrachten verdwijnen zonder waarschuwing, of worden minder lucratief. Bijvoorbeeld: voor sommige projecten kreeg men $8 per gesprek, maar via andere routes daalde dat van $50 naar $15 per uur zonder dat duidelijk was waarom.
Inside the lucrative, disturbing world of humans training AI chatbotsThere are no ghosts in the AI machine — just legions of hidden humans training chatbots to act more like us. |
Ethische en maatschappelijke dilemmata
Deze raters worden soms geconfronteerd met moreel beladen opdrachten: moet een model bijvoorbeeld antwoorden afgeven over kindermisbruik, geweld, haatspraak? En wie bepaalt wat wel of niet acceptabel is? De richtlijnen veranderen vaak, zijn soms vaag, en de raters krijgen zelden volledige context.
The secret lives of AI annotatorsThis is a condensed version of Business Insider Today, a newsletter that gives you a look at the week’s top stories. Sign up here to get the full Business Insider Today in your inbox every day for the top stories in markets, tech, and business. |
De onzekere toekomst
Grote techbedrijven halen steeds meer AI-training in huis of specialiseren de opdrachten steeds verder, waardoor de algemene annotators – met lagere specialisatie – kwetsbaarder worden. Er wordt gevreesd dat veel van dit werk in de toekomst zal verdwijnen of sterk zal veranderen.
Wat opvalt is het contrast tussen de publieke voorstelling van AI als een magisch, autonoom systeem, en de realiteit erachter: een netwerk van mensen die vaak in moeilijke omstandigheden proberen de kwaliteit en veiligheid van die systemen te waarborgen. Veel van hun werk is niet alleen psychisch zwaar, maar biedt ook weinig transparantie en stabiliteit. Terwijl de wereld massaal gebruikmaakt van chatbots, blijft het lot van degenen die de output controleren grotendeels onzichtbaar.
Human Trainers Power AI Chatbots Amid Burnout and Ethical ConcernsHuman trainers, often gig workers, label data to make AI chatbots human-like for companies like Scale AI and xAI, fueling a billion-dollar industry. Despite high demand and pay up to $50/hour, they face erratic conditions, burnout from disturbing content, and ethical issues like privacy breaches. Reform is essential for sustainability. |









