Tijdens een indringende lezing op TEDx aan de Aristide Demetriade Street trok Mark T. Hofmann het publiek mee in een wereld die voor velen onzichtbaar blijft: de schaduwzijde van artificiële intelligentie.
Hofmann, misdaad- en inlichtingenanalist én bedrijfspsycholoog, staat internationaal bekend om zijn expertise in gedrags- en cyberprofilering. Via interviews met hackers — sommigen nog steeds anoniem en ongrijpbaar — toont hij hoe AI vandaag wordt ingezet als krachtig wapen in digitale aanvallen.
Zijn boodschap is helder: AI is niet alleen een instrument van vooruitgang. Het is ook een katalysator voor nieuwe vormen van misleiding, manipulatie en cybercriminaliteit.
Meer dan technologie: De menselijke zwakte
Volgens Hofmann is meer dan 90 procent van alle cyberaanvallen het gevolg van menselijke fouten. Niet falende software, maar falende beslissingen vormen de zwakke schakel.
Hackers begrijpen dat als geen ander. Met behulp van AI analyseren ze gedrag, taalgebruik en online gewoontes. Ze bouwen profielen op die zo verfijnd zijn dat slachtoffers nauwelijks nog merken dat ze worden gemanipuleerd.
AI wordt ingezet om:
- Gepersonaliseerde phishingmails te genereren
- Stemmen perfect na te bootsen
- Realistische deepfake-video’s te creëren
- Sociale relaties digitaal te imiteren
De aanvallen zijn niet langer massaal en willekeurig. Ze zijn persoonlijk, psychologisch en strategisch.
Deepfakes: Wanneer realiteit verdwijnt
Deepfake-technologie vormt een van de grootste bedreigingen. Met slechts enkele seconden aan audio kan een AI-model iemands stem klonen. Video’s kunnen worden gemanipuleerd zodat iemand uitspraken lijkt te doen die nooit zijn gezegd.
Wat ooit sciencefiction leek, is vandaag commerciële realiteit.
Hofmann waarschuwt dat deze technologie niet alleen bedrijven treft, maar ook particulieren. Van CEO-fraude tot gemanipuleerde familieoproepen: de grens tussen echt en nep vervaagt razendsnel.
Hackers denken als psychologen
Wat Hofmanns analyse bijzonder maakt, is zijn psychologische invalshoek. Hackers opereren niet alleen als technici, maar als gedragswetenschappers.
Ze bestuderen emoties zoals:
- Angst
- Urgentie
- Autoriteit
- Vertrouwen
Door AI te combineren met gedragsinzichten ontstaan hyperrealistische aanvallen. Een zogenaamd dringende stem van een leidinggevende. Een geloofwaardige video-oproep van een familielid. Een e-mail die exact jouw schrijfstijl nabootst.
De technologie is indrukwekkend — maar de manipulatie is menselijk.
De “Human Firewall”
Toch eindigt Hofmann niet in pessimisme. Zijn kernboodschap: technologie kan krachtig zijn, maar menselijke waakzaamheid is krachtiger.
Hij introduceert het concept van de “human firewall”: een geïnformeerde, kritische en alerte gebruiker die begrijpt hoe AI-misbruik werkt.
Digitale weerbaarheid vraagt volgens hem om:
- Bewustzijn van AI-gegenereerde manipulatie
- Training in cyberhygiëne
- Kritisch denken bij urgente digitale verzoeken
- Organisaties die veiligheidscultuur boven snelheid plaatsen
AI zal blijven evolueren. Maar onze mentale weerbaarheid kan dat ook.
De realiteit van vandaag
De kans is groot dat vrijwel iedereen ooit al slachtoffer is geweest van een cyberaanval — al was het maar via een datalek of phishingpoging.
Wat deze nieuwe golf onderscheidt, is schaal en snelheid. AI automatiseert misleiding. Deepfakes industrialiseren vertrouwen.
Volgens Hofmann leven we in een tijdperk waarin niet alleen systemen, maar ook percepties worden gehackt.
De strijd om cybersecurity is daarom geen louter technische strijd. Het is een strijd om bewustzijn.









