De Stille Herschrijving van de Werkelijkheid
Wanneer AI Wordt Getraind om te Misleiden
eyesonsuriname
Amsterdam, 3 November 202500–In de beginjaren van het internet waren we bang voor hackers.
We dachten aan donkere kamers en knipperende schermen, aan mensen die probeerden binnen te dringen door firewalls en wachtwoorden te breken.
Maar de grootste dreiging voor AI komt niet van binnendringers.
Ze komt van het ongemerkt binnensluipen in de trainingsdata zelf.

Recent onderzoek van Anthropic, het UK AI Security Institute en het Alan Turing Institute laat iets verontrustends zien:
Door minder dan 0,01% vergiftigde tekst toe te voegen aan de trainingsdata van een AI-model kan het gedrag van dat model onzichtbaar worden gewijzigd.
Het model lijkt normaal.
Het antwoordt beleefd.
Het slaagt voor veiligheidstests.
Tot de juiste trigger wordt gegeven.
Dan wordt iets anders wakker.
Een andere toon.
Een subtiele verschuiving.
Een verborgen bedoeling.
Dit is geen sciencefiction — dit is invloed.
Geen brute aanval.
Maar stille herprogrammering.
En het ergste?
Het is goedkoop.
Je hebt niet nodig:
- Legers
- Supercomputers
- Interne toegang
Je hebt alleen nodig:
- Publieke trainingsdata
- Geduld
- Een doel
Dit is hoe propaganda evolueert:
Niet via schreeuwerige slogans, maar door het verschuiven van wat vanzelfsprekend lijkt.
AI vertelt je niet wat je moet denken.
Het bepaalt welk denken logisch voelt.
En wanneer miljoenen mensen AI gebruiken om de wereld uit te leggen, krijgen zelfs de kleinste verschuivingen grote invloed.
Dit is niet alleen een technologisch probleem.
Het is een cultureel probleem.
Want als wij ons denken uitbesteden aan systemen die door anderen kunnen worden gevormd —
Dan verliezen wij de hand aan het stuur van onze eigen geest.
De vraag is nu niet meer:
Kan AI gemanipuleerd worden?
Dat weten we al.
De echte vraag is:
Hoe blijven wij als burgers wakker en zelfstandig?
eyesonsuriname