Immersive Lab onderzoeker Jeroen Cluckers trok onlangs op uitnodiging van consultancy agency ICF naar Brussel, voor een talk over AI en desinformatie. Een thema dat heel wat van de aanwezige EU-communicatiemedewerkers wakker houdt, met het oog op een ongezien belangrijk verkiezingsjaar.
Desinformatie en het risico op destabilisatie
In de loop van 2024 zal zowat de helft van de wereldbevolking naar de stembus trekken. En hoewel de opmars van AI heel wat voordelen met zich meebrengt, loert fake news meer dan ooit geniepig om de hoek van onze democratische samenleving. Het World Economic Forum identificeerde desinformatie zelfs als één van de grootste risicofactoren die een maatschappij kan destabiliseren.
Deepfake video’s bijvoorbeeld kunnen een ludieke gimmick zijn, maar in de context van verkiezingscommunicatie zijn ze vooral een zorgwekkende trend. Onderzoeker Jeroen Cluckers verschafte het aanwezige publiek op ICF Next inzicht in het maakproces van dergelijke AI-generated content.
Bekijk hier de volledige talk.
Wij voelden Jeroen na afloop nog even verder aan de tand over AI-gegenereerde content; de materie die hem als onderzoeker dagelijks bezighoudt en inspireert.
Zijn vooral de minder digital native generaties de makkelijkste prooi voor AI-gegenereerde desinformatie?
"Je zou inderdaad denken dat oudere, minder digital native, mensen vatbaarder zijn voor fake news. Toch zie ik ook veel jongeren onbewust fake content consumeren en delen op sociale media, zonder kritisch hun bronnen in vraag te stellen. De stap van het delen van onbestaande idyllische vakantiebestemmingen naar het (re-)posten van politieke deepfakes is dan snel gezet. De realiteit is dat AI-content steeds moeilijker te onderscheiden is van authentieke, los van leeftijd of digitale geletterdheid – zelfs voor een getraind oog zoals het mijne.”
Heb je tips om ook met een minder geoefend oog fake van feit te onderscheiden?
“De AI-content wordt bijna wekelijks beter. Een tijdje geleden kon je een AI-beeld nog herkennen aan handen met opvallend veel vingers, maar dat is vandaag alweer verleden tijd. We zijn het uncanny valley-punt absoluut voorbij: een recente studie toonde aan dat we niet meer in staat zijn om échte gezichten van AI-gezichten te onderscheiden. Er zijn momenteel ook nog geen geschikte applicaties om ons daarin te ondersteunen, al werkt George Bara- mijn medespreker op ICF Next - wel aan zo’n fake news detectietool.
Wanneer je met een getraind grafisch oog inzoomt op een beeld, kan je een gegenereerd beeld wel herkennen aan het patroon waaruit het is opgebouwd, een soort ‘ruis’. Al zal dat misschien ook niet lang meer zo zijn.”
Kan AI ook op een constructieve, ethisch verantwoorde manier ingezet worden in politieke communicatie, denk je?
“Absoluut. AI-content zou heel waardevol kunnen zijn in het concretiseren van partijprogramma’s, die vaak grotendeels abstract blijven voor de kiezer. Stel je voor dat alle politieke partijen hun agendapunten en visieteksten eens in ChatGPT zouden gooien, met de opdracht om die materie behapbaar te maken in tekst en beeld, en wat dat voor een samenleving zou betekenen... Dan zou je als output bijvoorbeeld kunnen zien hoe pakweg Antwerpen er zou uitzien volgens de plannen van partij X of Y. Zo’n toepassing lijkt me heel relevant om mensen te helpen een zo bewust mogelijke keuze te maken in het stemhokje.”
De ICF-Next talk van Jeroen Cluckers kaderde binnen het lopende TETRA-project Creative AI, dat onderzoekt hoe AI-tools de creatieve industrie kunnen ondersteunen in hun workflows. Lees er hier meer over.