Alles is fake – wat nu?
Alles wat je op TikTok ziet, is echt. En volledig betrouwbaar. Althans, als je het aan mijn neefje of nichtje vraagt. Ze nemen alles wat ze er zien voor waarheid aan en het komt niet eens in ze óp dat ze best wat kritischer mogen zijn in hun mediaconsumptie. Onlangs organiseerden we vanuit Ferm een ontbijtsessie over de betrouwbaarheid van data. Dan krijg je behalve een vers croissantje en een goeie kop koffie ook een interessante presentatie voorgeschoteld. In dit geval over synthetische media, generatieve AI en deepfakes. Hoe kunnen we in het licht van de overvloed aan artificieel gegenereerde data nog vertrouwen op wat we zien, horen en lezen – en welke invloed heeft dat op de maatregelen die we moeten nemen op cyberveiligheid?
De strekking: eigenlijk is alles al nep.
Zo’n negentig procent van alle digitale content, misschien zelfs al wel meer dan dat, is tegenwoordig met AI gegenereerd of gemanipuleerd. Denk dan aan de filters op social media, de deepfakes van politici of sterren uit Hollywood en inderdaad een aanzienlijk deel van alle content van TikTok – maar óók aan zakelijk apps die we gebruiken, zoals tools voor videobellen. Het lijkt namelijk een videostream waarbij je naar elkaars gezicht kijkt, via je webcam dan toch, maar blijkt in werkelijkheid slechts een AI-versie van je gezicht, als slimme truc om bandbreedte te besparen voor een vlotte verbinding.
Nu is ruim 99 procent van dat soort synthetische media gelukkig niet malafide – denk ook hier aan een onschuldig Instafiltertje – maar het het beïnvloedt wél de waarneming. De context wordt dus enorm belangrijk. Combineer dat met het feit dat we inmiddels volledig afhankelijk zijn van een digitaal informatie-ecosysteem en dan komen er fundamentele vragen. Heeft het nog wel zin om te spreken over echt versus nep? Want het gaat juist veel meer om hoe betrouwbaar de informatie is voor de context waarbinnen je deze wil toepassen.
Met andere woorden, hoe geef je betekenis aan informatie in een wereld waarin alles gemanipuleerd is? En dan is bovenstaande pas één kant van het verhaal. Punt twee is dat het produceren van media ook nog eens heel laagdrempelig is geworden. Je kunt volledige werkstukken uit ChatGPT laten rollen – zoals mijn zoontje graag doet (waarbij de vraag wordt: leer ik hem dat af, of moeten we ze juist begeleiden in het werken mét AI?), maar hoeft ook echt geen video- of editing skills te hebben om een fraai filmpje in elkaar te draaien. Sterker nog, je hebt er niet eens meer een camera voor nodig.
Dat maakt frauderen helaas ook heel laagdrempelig. Neem bijvoorbeeld storage spoofing, waar Ferm al jaren strijd tegen voert. Tank Storage Spoofing is een verzamelterm voor de verkoop van niet-bestaande handel, zogenaamd vanuit terminals in het Rotterdamse havengebied. Het voornaamste middel van deze oplichters zijn valse websites die dienen als ‘webshop’ voor brandstoffen, terminals en zelfs complete bedrijven die in werkelijkheid helemaal niet bestaan. Die websites kun je tegenwoordig in slechts enkele minuten en zonder enige IT-skills zo op de digitale snelweg lanceren. Terwijl de stappen die we moeten nemen om ze weer offline te krijgen een stuk complexer en tijdrovender zijn. Dus als iemand een AI-programma kan schrijven dat automatisch foute websites offline trekt…?