In een verrijkend onderzoek tonen onderzoekers aan dat overdreven beleefde reacties op sociale media juist kunnen verraden dat het om een machine-antwoord gaat, en niet om een mens.
Zo werd het onderzoek uitgevoerd
Een internationale onderzoeksgroep (waaronder onderzoekers van University of Zurich, University of Amsterdam, Duke University en New York University) analyseerde reacties op sociale-media-posts die waren geschreven door moderne taalmodellen (LLM’s) versus door mensen. Het team ontwikkelde wat zij een “computational Turing-test” noemen: geautomatiseerde classifiers die aan de hand van tekstkenmerken moesten inschatten of een reactie mens of machine is. Deze formule sloeg aan: modellen wisten in ongeveer 70-80% van de gevallen het verschil te maken.
ARTICLE FACTORY: Polite Replies Signal AI Bots, Study ShowsResearchers from the University of Zurich, University of Amsterdam, Duke University and NYU released a study revealing that AI‑generated social‑media replies are often marked by an overly friendly emotional tone. Testing nine open‑weight large language models across platforms such as Twitter/X, Bluesky and Reddit, the team found their classifiers could detect AI‑generated content with 70 to 80 percent accuracy. The models also displayed consistently lower toxicity scores than human users, and attempts to fine‑tune or prompt them did not eliminate the emotional‑tone giveaway. |
Het opvallende signaal: Overdreven vriendelijkheid
Wat bleek? De beste indicator dat een reactie door een bot is gemaakt, is een te vriendelijke, te beleefde toon. AI-gegenereerde antwoorden hadden opvallend vaak minder emotie, minder ‘menselijke oneffenheden’ en vooral: minder kritiek of ruwe randjes. Bots scoorden consequent laag op ‘toxicity’ — terwijl: mensen in het wild juist vaker inklappen in sarcasme, nuance, emotie of lichte onbeleefdheid. Kortom: een ogenschijnlijk keurige, perfect geformuleerde reactie met weinig ruis of emotionele lading kan bescheiden, maar duidelijk, een indicator zijn dat het géén mens is.
|
Researchers surprised that with AI, toxicity is harder to fake than intelligenceNew “computational Turing test” reportedly catches AI pretending to be human with 80% accuracy. |
Grenzen en kanttekeningen
Hoewel het signaal “te vriendelijk = AI” sterk naar voren komt, geldt:
- Het is geen onfeilbare test. De 70-80% succesratio betekent dat 20-30% van de gevallen nog fout gelabeld wordt.
- De modellen die werden getest zijn open-gewichten en sociale-media-reply-situaties; andere contexten (bijv. lange essays, technische documenten) kunnen andere patronen tonen.
- Het onderzoek richt zich o.a. op toon; andere elementen zoals netwerkgedrag, tijdstip van reageren, metadata zijn nog steeds van belang – maar minder zichtbaar.
Onderzoek wijst uit dat juist te veel perfectie en beleefdheid een zwakke schakel kan zijn in het imiteren van menselijke interactie door AI. Ontwerpen van AI-interfaces of moderatiemechanismen moeten beter letten op emotionele nuance en toon om authentiek en geloofwaardig over te komen — én om bots te kunnen herkennen. Door de emotionele laag mee te nemen in ontwerp- en detectie-strategieën ontstaat een rijkere, betrouwbaardere interactie tussen mens en machine.









