Filosofie als fundament van AI-ethiek
Bij Anthropic, één van de centrale spelers in de wereld van kunstmatige intelligentie, is niet een ingenieur of codeur aan het roer — maar een filosoof. Amanda Askell werkt er als inhouse-filosoof en gebruikt haar achtergrond in ethiek en besluitvorming om AI-modellen niet alleen slim, maar ook moreel bewust te maken.
|
Anthropic Philosopher’s AI Whispering Techniques Boost Prompting ReliabilityAmanda Askell, a philosopher at Anthropic, draws from ethics and decision theory to develop "whispering" techniques for AI prompting, emphasizing empathy, precision, and iterative dialogue to unlock models like Claude's potential. Her methods enhance reliability in fields like coding and creative writing, blending philosophy with technology for responsible AI interactions. |
Haar doel is niet louter technische perfectie, maar om AI te vormen tot een “hulpvaardige assistent die eerlijk is en om de wereld geeft”.
|
Building an AI’s Moral Character - Daily NousIf you could build an agent from the ground up, what would its character be like? That’s the question confronting AI developers today. Recently some details came to light about how Anthropic is approaching this task for its model, Claude. The “soul document” of Claude 4.5 Opus was recently posted at Less Wrong by AI enthusiast Richard Weiss, and its accuracy was confirmed by Amanda Askell, a philosopher who works for Anthropic on AI alignment. The post at Less Wrong includes a number of technical details from Weiss, but the text of the “soul document” itself is reproduced about a quarter of the way through (search the page for “soul overview” and you’ll get to the header that says “Anthropic Guidelines” — it starts there). Claude’s “soul do |
“Whispering” — de kunst van subtiele AI-aansturing
Askell benadrukt dat effectieve interactie met AI niet voortkomt uit simpele commando’s, maar uit zorgvuldige en empathische instructies — wat zij noemt “whispering”. In plaats van schreeuwen (“doe dit!”), gaat het om fluisterende, goed uitgewerkte aanwijzingen: met duidelijke rollen, context, beperkingen, en expliciete doelen.
Volgens haar is prompting (het schrijven van opdrachten voor AI) geen exact vak, maar eerder een empirische vaardigheid: je moet voortbouwen op ervaring, observeren hoe de AI reageert en je aanpak bijstellen.
You are probably prompting AI wrong: Anthropic philosopher explains how to learn the language of AI | MintAs AI chatbots proliferate, mastering prompt writing is essential. Amanda Askell from Anthropic emphasizes that effective prompting is experimental, requiring users to adapt based on interactions. She says that users should provide clear instructions to the chatbot and learn to ‘reason’ with them. |
Een “zielsdocument” voor AI-karakter
Uniek is dat Anthropic werkt met wat men het “soul document” noemt — een intern document dat bepaalt welke waarden, doelen en principes het AI-model (Claude) hanteert.
Die waarden maken van Claude niet enkel een berekenende machine, maar een “ethisch georiënteerde assistent” — eerlijk, behulpzaam, en met aandacht voor wat goed is voor gebruikers en de wereld.
Nuancerende AI: Niet slechts slim, maar zorgvuldig
Askell en haar team proberen te vermijden dat Claude simpelweg de wensen van gebruikers bevestigt — wat men “sycophantie” noemt — en in plaats daarvan op waarheid, integriteit en moreel verantwoord handelen te leunen.
Dat is cruciaal in een tijd waarin AI-systemen steeds vaker meedenken met mensen. Volgens Askell kan AI dienen als “vriend — slim, behulpzaam, en betrouwbaar” — niet als een passieve tool, maar als bewuste partner.
Wat betekent dit voor de toekomst van AI en de gebruiker?
- AI wordt minder mechanisch: in plaats van enkel data te verwerken, wordt er aandacht besteed aan toon, ethiek, en verantwoordelijkheid.
- Filosofen krijgen een nieuwe rol: niet enkel als academische denkers, maar als vormers van de “ziel” en het karakter van AI-systemen.
- Gebruikers moeten leren “vragen” op een betere manier: heldere, empathische prompts zorgen voor betrouwbaardere, zinvollere output.
- AI-modellen kunnen evolueren van louter “tools” tot “partners”: aanwezig in creatief, moreel en intellectueel werk.









