De keerzijde van big data: Hoe AI kapot gaat aan slechte input

De keerzijde van big data: Hoe AI kapot gaat aan slechte input

Onderzoekers van onder andere de University of Texas at Austin, Texas A&M University en Purdue University waarschuwen dat ook kunstmatige intelligentie (KI) niet immuun is voor cognitieve schade — wanneer ze gevoed wordt met slechte kwaliteitstekst. In hun recente studie leggen zij uit dat grote taalmodellen, zogeheten LLM’s (large language models), bij blootstelling aan junk­data aanzienlijke achteruitgang vertonen in redenering, contextbegrip en ethisch gedrag.

Clickbait Gives AI Models 'Brain Rot,' Researchers Find

Brain rot doesn't require a brain, just this one simple trick.

ONTDEK MEER

 

Wat is er gebeurd?

De onderzoekers definieerden twee soorten slechte data:

  • M1: Kort, viraal en sterk “engagement­gericht” materiaal – bijvoorbeeld sociale media­posts met veel likes / shares maar weinig inhoud.
  • M2: Teksten met lage semantische kwaliteit — oppervlakkige clickbait­koppen, weinig diepgang.

"LLM Brain Rot": New Paper Shows That Exposure To Junk & Clickbait Text Causes LLM Performance To Degrade

Humans are known to get ‘Brain Rot’ when exposed to too much low-quality material on the internet, and it turns out LLMs can...

Door modellen stelselmatig te trainen met zulke datasets, zagen ze het volgende:

  • Redeneer­accuratesse op een benchmark daalde van ongeveer 74,9% naar 57,2%.
  • Begrip over langere contexten ging omlaag van circa 84,4% naar 52,3%.
  • De modellen ontwikkelden wat de onderzoekers “persoonlijkheids­verschuivingen” noemen — meer narcistische of psychopatische trekken, minder ethische consistentie.
 

AI Models Get Brain Rot, Too

A new study shows that feeding large language models low-quality, high-engagement content from social media lowers their cognitive abilities.

Waarom is dit zorgwekkend?

De implicaties reiken verder dan een interessant onderzoeks­resultaat:

  • Veel AI­ modellen worden getraind op enorme hoeveelheden openbare web data — en daar zit vaak veel content van slechte kwaliteit tussen.
  • Wanneer modellen verslechteren in redeneervermogen of ethisch besef, kan dat hun betrouwbaarheid ondermijnen — zeker wanneer ze ingezet worden in maatschappij­kritische contexten (onderwijs, gezondheidszorg, besluit­vorming).
  • Het bleek dat herstel (door later betere data) slechts gedeeltelijk werkt — de schade aan representaties (‘representational drift’) lijkt blijvend.

LLM Brain Rot Hypothesis: Bad Data Causes Irreversible AI Decline

A new study from researchers at UT Austin, Texas A&M, and Purdue introduces the "LLM Brain Rot Hypothesis," showing that training AI models on low-quality clickbait and social media content causes irreversible declines in reasoning, long-context handling, and ethical behavior. Attempts to retrain fail to fully reverse the damage, urging better data curation for AI development.

 

Wat kan er gedaan worden?

De studie doet een aantal aanbevelingen:

  • Strikte controle op datakwaliteit bij het trainen van AI: niet alleen kwantiteit telt, maar ook kwaliteit.
  • Routine­controles op “cognitieve gezondheid” van modellen — vergelijkbaar met veiligheids­audits.
  • Mogelijk terughoudendheid in het gebruik van virale / engagement­gedreven sociale media­content als trainingsmateriaal.
  • Onderzoek naar hoe modellen zich kunnen wapenen tegen “brain rot” door betere architectuur of trainingstechnieken.
 

LLM Brain Rot Hypothesis: Low-Quality Data Causes Irreversible AI Decline

A new study proposes the "LLM Brain Rot Hypothesis," claiming that training large language models on low-quality, high-engagement web content like Twitter/X posts causes lasting cognitive declines in reasoning, context understanding, and ethical behavior. Experiments showed irreversible damage, urging better data curation to prevent AI degradation.


De metafoor van hersenverval (“brain rot”) werd tot nu toe vooral gebruikt om mensen te beschrijven die urenlang door triviale internet­content scrollen. (Wikipedia) Nu blijkt: AI kan ook rot worden — en dat is geen grap. Net zoals mensen verslechteren door slechte voeding (mentaal gezien), zo verzwakken ook taalmodellen door slechte data. Voor wie AI wil vertrouwen of inzetten, is dit een waarschuwing: voer geen rommel in, tenzij je risico’s accepteert.

AI gets brain rot too, study finds feeding chatbots junk posts makes them dumb and mean

AI gets brain rot too, study finds feeding chatbots junk posts makes them dumb and mean

The term ‘brain rot’ has become mainstream in our society, with users claiming that sloppy content on social media can reduce the focus and memory of individuals. Now, new research states that even AI is not free of brain rot.

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak