De kunst van samenwerken met kunstmatige intelligentie
In een tijd waarin generatieve AI-tools zoals Claude steeds vaker worden gebruikt in het dagelijks leven, is één vraag minstens zo belangrijk als adoptie: leren mensen AI wel goed te gebruiken? Dat was de kernvraag van het nieuwe AI Fluency Index-rapport van het Amerikaanse onderzoeks- en AI-bedrijf Anthropic.
Het onderzoek vormt een eerste baseline — een beginmeting — voor hoe gebruikers momenteel met AI samenwerken en welke gedragingen echte “AI-vaardigheid” kenmerken.
Niet alleen gebruiken, maar beheersen
Anthropic analyseerde bijna 9.830 geanonimiseerde Claude.ai-gesprekken die meerdere rondes van interactie bevatten. Daarbij keken onderzoekers naar 11 observeerbare gedragingen die volgens het AI Fluency Framework echte AI-vaardigheid laten zien — denk aan follow-ups, duidelijke instructies, evaluatie van output en kritisch doorvragen.
Anthropic Education Report: The AI Fluency IndexAnthropic's AI Fluency Index measures 11 observable behaviors across thousands of Claude.ai conversations to understand how people develop AI collaboration skills. |
Het rapport gebruikt hiervoor het 4D AI Fluency Framework, ontwikkeld door academici in samenwerking met Anthropic, om vaardigheden zoals iteratie, beschrijving, discernment (onderscheidingsvermogen) en delegeren meetbaar te maken.
Iteratie loont — maar kritisch denken daalt
Het opvallendste resultaat: gebruikers die serieus werken met AI blijven in dialoog en verfijnen hun werk vaker. In zo’n 85% van de chats zagen onderzoekers dat iteratie — het vrijwel letterlijk terugkeren naar eerdere antwoorden en bijstellen — samengaat met veel meer AI-vaardigheden.
Maar er was ook een opmerkelijke keerzijde: Wanneer AI iets af lijkt te leveren — zoals een codefragment, document of tool — nemen gebruikers minder vaak de tijd om het resultaat kritisch te evalueren. Ze vragen dan minder om context, controleren minder de feiten en stellen minder vaak vragen over waarom de AI een antwoord gaf zoals het dat deed.
Dat doet denken aan wat analisten het “AI trust paradox” noemen: Hoe geloofwaardiger de output eruitziet, hoe minder kritisch mensen ernaar kijken — zelfs als het niet per se klopt.
Drie leerpunten voor betere AI-vaardigheid
Uit de data blijkt dat er drie concrete manieren zijn waarop gebruikers hun AI-vaardigheid kunnen verbeteren:
- Blijf in gesprek. Behandel het eerste antwoord nooit als finale versie — stel vervolgvragen en verfijn tot je het resultaat begrijpt.
- Kritisch blijven. Een mooi of compleet resultaat is nog geen zekerheid; vraag om bewijs, redenatie en eventuele beperkingen.
- Stel duidelijke doelen. Vertel de AI wat je verwachtingen zijn — wat je wél en niet wilt — om de samenwerking te verbeteren.
Onderzoekers merken op dat slechts 30% van de gebruikers vooraf expliciet communiceert wat ze van de AI willen, wat aangeeft hoe weinig mensen nog echt coachen in plaats van alleen opvragen.
Een meetlat voor de toekomst
Hoewel dit eerste AI Fluency Index-rapport slechts een momentopname is, biedt het een waardevolle baseline om in toekomstige studies te volgen hoe gebruikers hun vaardigheden verder ontwikkelen als AI-modellen slimmer worden en adoptiemilieu’s veranderen.









