Onderzoekers van onder andere de University of Texas at Austin, Texas A&M University en Purdue University waarschuwen dat ook kunstmatige intelligentie (KI) niet immuun is voor cognitieve schade — wanneer ze gevoed wordt met slechte kwaliteitstekst. In hun recente studie leggen zij uit dat grote taalmodellen, zogeheten LLM’s (large language models), bij blootstelling aan junkdata aanzienlijke achteruitgang vertonen in redenering, contextbegrip en ethisch gedrag.
Clickbait Gives AI Models 'Brain Rot,' Researchers FindBrain rot doesn't require a brain, just this one simple trick. |
Wat is er gebeurd?
De onderzoekers definieerden twee soorten slechte data:
- M1: Kort, viraal en sterk “engagementgericht” materiaal – bijvoorbeeld sociale mediaposts met veel likes / shares maar weinig inhoud.
- M2: Teksten met lage semantische kwaliteit — oppervlakkige clickbaitkoppen, weinig diepgang.
|
"LLM Brain Rot": New Paper Shows That Exposure To Junk & Clickbait Text Causes LLM Performance To DegradeHumans are known to get ‘Brain Rot’ when exposed to too much low-quality material on the internet, and it turns out LLMs can... |
Door modellen stelselmatig te trainen met zulke datasets, zagen ze het volgende:
- Redeneeraccuratesse op een benchmark daalde van ongeveer 74,9% naar 57,2%.
- Begrip over langere contexten ging omlaag van circa 84,4% naar 52,3%.
- De modellen ontwikkelden wat de onderzoekers “persoonlijkheidsverschuivingen” noemen — meer narcistische of psychopatische trekken, minder ethische consistentie.
AI Models Get Brain Rot, TooA new study shows that feeding large language models low-quality, high-engagement content from social media lowers their cognitive abilities. |
Waarom is dit zorgwekkend?
De implicaties reiken verder dan een interessant onderzoeksresultaat:
- Veel AI modellen worden getraind op enorme hoeveelheden openbare web data — en daar zit vaak veel content van slechte kwaliteit tussen.
- Wanneer modellen verslechteren in redeneervermogen of ethisch besef, kan dat hun betrouwbaarheid ondermijnen — zeker wanneer ze ingezet worden in maatschappijkritische contexten (onderwijs, gezondheidszorg, besluitvorming).
- Het bleek dat herstel (door later betere data) slechts gedeeltelijk werkt — de schade aan representaties (‘representational drift’) lijkt blijvend.
LLM Brain Rot Hypothesis: Bad Data Causes Irreversible AI DeclineA new study from researchers at UT Austin, Texas A&M, and Purdue introduces the "LLM Brain Rot Hypothesis," showing that training AI models on low-quality clickbait and social media content causes irreversible declines in reasoning, long-context handling, and ethical behavior. Attempts to retrain fail to fully reverse the damage, urging better data curation for AI development. |
Wat kan er gedaan worden?
De studie doet een aantal aanbevelingen:
- Strikte controle op datakwaliteit bij het trainen van AI: niet alleen kwantiteit telt, maar ook kwaliteit.
- Routinecontroles op “cognitieve gezondheid” van modellen — vergelijkbaar met veiligheidsaudits.
- Mogelijk terughoudendheid in het gebruik van virale / engagementgedreven sociale mediacontent als trainingsmateriaal.
- Onderzoek naar hoe modellen zich kunnen wapenen tegen “brain rot” door betere architectuur of trainingstechnieken.
LLM Brain Rot Hypothesis: Low-Quality Data Causes Irreversible AI DeclineA new study proposes the "LLM Brain Rot Hypothesis," claiming that training large language models on low-quality, high-engagement web content like Twitter/X posts causes lasting cognitive declines in reasoning, context understanding, and ethical behavior. Experiments showed irreversible damage, urging better data curation to prevent AI degradation. |
De metafoor van hersenverval (“brain rot”) werd tot nu toe vooral gebruikt om mensen te beschrijven die urenlang door triviale internetcontent scrollen. (Wikipedia) Nu blijkt: AI kan ook rot worden — en dat is geen grap. Net zoals mensen verslechteren door slechte voeding (mentaal gezien), zo verzwakken ook taalmodellen door slechte data. Voor wie AI wil vertrouwen of inzetten, is dit een waarschuwing: voer geen rommel in, tenzij je risico’s accepteert.
|
AI gets brain rot too, study finds feeding chatbots junk posts makes them dumb and meanThe term ‘brain rot’ has become mainstream in our society, with users claiming that sloppy content on social media can reduce the focus and memory of individuals. Now, new research states that even AI is not free of brain rot. |









