Deepfakes herkend


Arjen Lubach wees al eens op de gevaren van deepfakes. Als informatieprofessionals keken we daar natuurlijk niet heel erg van op. Niettemin gaan we bij de komende VOGIN-IP-lezing nog eens op dat thema in. Professor Zeno Geradts zal daar namelijk één van de keynotes verzorgen. Hij is werkzaam bij het Nederlands Forensisch Instituut en is daarnaast bijzonder hoogleraar Forensic Data Science bij het Instituut voor Informatica van de UvA. Zijn lezing koppelt die twee instituten, want die werken samen in een net gestart project waarin technieken worden ontwikkeld om automatisch te herkennen of een video een deepfake is. Doordat er steeds geavanceerder – en laagdrempeliger – software is om deepfakes te maken, wordt het steeds moeilijker om ze nog met simpele technieken te herkennen.
Dat herkennen is zo’n beetje de heilige graal geworden voor zowel factcheckers als forensisch onderzoekers. Het Forensisch Instituut wil ten behoeve van juridische procedures bijvoorbeeld onomstotelijk kunnen bewijzen dat een bepaalde persoon werkelijk in een video voorkomt en daarin zegt wat hij zegt. Ook bij de verspreiding van nepnieuws spelen deepfakes steeds vaker een rol. Hoe weten we of een politicus of een BNer werkelijk de stuitende uitspraak gedaan heeft die je hem net “met eigen ogen” hebt zien doen. Ook voor nieuws- en factcheckers is het dus van belang te kunnen bepalen of een video een deepfake is of niet.

Beeld uit een video van de American Academy of Forensic Sciences –
Is dit nu echt Zeno Geradts? 😉

Volgens Zeno Geradts zijn de huidige modellen voor het herkennen van deepfakes in staat om dat in zo’n 80% van de gevallen correct te doen, maar hij wil graag dat toch wel meer dan 99% van de deepfakes eruit gevist kan worden. Er is dus nog genoeg werk te doen, des te meer omdat het een kat-en-muis spel is, waarin snelle verbeteringen aan de maakkant moeten worden bijgehouden aan de detectiekant. Marcel Worring, de UvA-collega waarmee Zeno Geradts in dit project samenwerkt, memoreerde al dat van alle investeringen in deepfakes 90% gaat naar het verbeteren van de techniek om ze te maken en op dit moment maar 10% naar onderzoek om ze te herkennen.

Meer informatie over de VOGIN-IP-lezing en over aanmelding op de VOGIN-IP-site

Laat een reactie achter

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *


De verificatie periode van reCAPTCHA is verlopen. Laad de pagina opnieuw.

Scroll naar boven