Eind vorig jaar wees Arjen Lubach al eens op de gevaren van deepfakes. Als informatieprofessionals keken we daar natuurlijk niet heel erg van op. Toch gaan we bij de komende VOGIN-IP-lezing verder op dat thema in. En nog wel in één van onze keynotes, de laatst geboekte, waarover we jullie nog niet echt geïnformeerd hadden. Voor de keynote waarmee het programma ‘s ochtends geopend wordt, hebben we professor Zeno Geradts uitgenodigd. Hij is werkzaam bij het Nederlands Forensisch Instituut en is daarnaast bijzonder hoogleraar Forensic Data Science bij het Instituut voor Informatica van de UvA. Zijn lezing koppelt ook die twee instituten. Die werken namelijk samen in een net nieuw gestart project waarin technieken worden ontwikkeld waarmee automatisch kan worden herkend of een video een deepfake is. Nu de technieken om deepfakes te genereren steeds geavanceerder – en laagdrempeliger – worden, wordt het steeds moeilijker om ze nog met simpele technieken te herkennen.
Dat herkennen is wel zo’n beetje de heilige graal geworden voor zowel factcheckers als forensisch onderzoekers. Bij het Forensisch Instituut willen ze ten behoeve van juridische procedures bijvoorbeeld onomstotelijk kunnen bewijzen dat een bepaalde persoon werkelijk in een video voorkomt of dat die het in werkelijkheid niet is. Ook bij de verspreiding van nepnieuws spelen deepfakes steeds vaker een rol. Hoe weten we of een politicus of een BNer werkelijk de stuitende uitspraak heeft gedaan die je hem net hebt zien doen. Ook voor nieuws- en factcheckers is het dus van belang te kunnen bepalen of een video een deepfake is of dat hij echt is.

Beeld uit video van American Academy of Forensic Sciences – Is dit echt Zeno Geradts? 😉
Dit onderzoek berust voor een belangrijk deel op kunstmatige intelligentie en wordt dan ook uitgevoerd bij het Innovation Center for Artificial Intelligence, een nationaal netwerk waarin universiteiten, bedrijven en overheid samenwerken. Volgens Zeno Geradts zijn de huidige modellen voor het herkennen van deepfakes in staat om dat in zo’n 80% van de gevallen correct te doen, maar hij wil graag dat toch wel meer dan 99% eruit gevist kan worden. Er is dus nog genoeg werk te doen, des te meer omdat het een kat-en-muis spel is waarin snelle verbeteringen aan de maakkant moeten worden bijgehouden aan de detectiekant. Marcel Worring, de UvA-collega waarmee Zeno Geradts in dit project samenwerkt, memoreerde al dat van alle investeringen in deepfakes 90 procent gaat naar het verbeteren van de techniek om ze te maken en op dit moment maar 10 procent naar onderzoek om ze te herkennen.