Hoe een AI-bedrijf personeel inzet om AI-agents te trainen
OpenAI, een van de grootste spelers in kunstmatige intelligentie, staat opnieuw in het middelpunt van een debat over hoe AI-modellen worden getraind. Uit recente berichten blijkt dat het bedrijf externe contractanten vraagt om echte documenten en werkvoorbeelden uit hun huidige of vorige banen te uploaden — niet als samenvatting, maar de daadwerkelijke bestanden.
Deze stap maakt deel uit van een bredere strategie om AI-systemen te laten leren van realistische taken uit “echte kantoorwerkomgevingen”. Door echte output te gebruiken — denk aan Word-documenten, Excel-spreadsheets, PowerPoint-presentaties, afbeeldingen of zelfs code-repositories — wil OpenAI een menselijke prestatienorm vaststellen waartegen zijn volgende generatie AI-agents kan worden gemeten.
OpenAI is reportedly asking contractors to upload real work from past jobs | TechCrunchAn intellectual property lawyer says OpenAI is "putting itself at great risk" with this approach. |
Wat OpenAI precies vraagt van contractanten
Volgens interne documenten die door Wired zijn ingezien, worden contractanten gevraagd om:
- Te beschrijven welke taken ze bij hun vorige of huidige baan hebben uitgevoerd.
- De concrete resultaten van die taken te uploaden — écht werk, niet alleen beschrijvingen.
- Voorbeelden kunnen zijn: Word-bestanden, presentaties, spreadsheets, afbeeldingen, codebestanden of andere werkproducten.
|
OpenAI Is Asking Contractors to Upload Work From Past Jobs to Evaluate the Performance of AI AgentsTo prepare AI agents for office work, the company is asking contractors to upload projects from past jobs, leaving it to them to strip out confidential and personally identifiable information. |
OpenAI geeft wel aan dat medewerkers gevoelige informatie moeten verwijderen voordat zij iets uploaden. Hiervoor stelt het bedrijf een tool beschikbaar genaamd Superstar Scrubbing waarmee vertrouwelijke gegevens geanonimiseerd kunnen worden.
Waarom deze aanpak controversieel is
Hoewel anonimiseren wordt aangemoedigd, waarschuwen juridische experts voor de risico’s van deze methode. Intellectueel eigendom en vertrouwelijke bedrijfsdata zijn lastig volledig te verwijderen door individuele werknemers, zelfs met hulpmiddelen. Zelfs zonder namen of contactgegevens kunnen documenten nog steeds gevoelige structuren of unieke data bevatten.
Volgens juristen betekent dit dat OpenAI en de betrokken contractanten zichzelf kunnen blootstellen aan juridische risico’s — bijvoorbeeld het schenden van vertrouwelijkheidsafspraken met vorige werkgevers of het onbedoeld vrijgeven van bedrijfsgeheimen.
Een bredere trend in AI-ontwikkeling
De stap van OpenAI past in een bredere trend binnen de AI-industrie, waarbij bedrijven steeds verder gaan in hun zoektocht naar hoogwaardige trainingsdata. Bedrijven als Anthropic en Google gebruiken ook grote teams contractanten om dergelijke data te genereren, met als doel AI-modellen te bouwen die uiteindelijk complexe, menselijke taken kunnen overnemen.
Dit alles vindt plaats tegen de achtergrond van het streven naar wat vaak wordt genoemd: AGI — Artificial General Intelligence, een toekomstvisie waarin AI-systemen menselijke prestaties kunnen evenaren of overstijgen op vrijwel elk economisch waardevol werk.
Wat dit betekent voor professionals en de arbeidsmarkt
Het initiatief heeft bij velen zorgen opgeroepen over de langetermijngevolgen voor kenniswerkers en witteboordenbanen. Als AI-modellen worden getraind op echte werkvoorbeelden, kan dat de weg vrijmaken voor automatisering van taken die traditioneel door hoogopgeleide professionals worden uitgevoerd — van projectmanagement tot technische documentatie en analyse.
Het vraagt ook om een kritisch debat over privacy, eigendom van werkdata, en transparantie in hoe AI-systemen worden ontwikkeld. Professionals willen weten wie toegang heeft tot hun werkproducten, wat er mee gebeurt en of daarvoor adequate bescherming en vergoeding bestaat.









