- 15:06Nederlandse overheid trekt jaarlijks 50 miljoen euro uit voor de bestrijding van analfabetisme onder jongeren op scholen
- 13:52Nederland wil defensie-uitgaven verhogen naar 3,5% van het BBP
- 17:36Israëlische aanvallen op Iraanse locaties zijn ‘alarmerend’: Nederlands kabinet
- 15:15Politie arresteert acht ‘soevereine burgers’, neemt wapens en explosieven in beslag
- 14:14Amsterdam stemt over plan om internationals te helpen ‘integreren’
- 11:56Un groupe de professionnels néerlandais explore les atouts d’Ifrane pour promouvoir le tourisme durable
- 16:40Coalitiepartijen bereiken akkoord over splitsing asielministerie
- 13:35Syrische asielaanvragen niet meer automatisch goedgekeurd in NL
- 16:36Nederlandse regering opgeroepen Israël te veroordelen voor het vasthouden van hulpschip
Volg ons op Facebook
Nederlandse forensisch experts ontwikkelen detector voor deepfake-video's
Het Nederlands Forensisch Instituut (NFI) heeft een nieuwe methode ontwikkeld om deepfake-video's te identificeren. Dit gebeurt door subtiele veranderingen in de gezichtskleur te detecteren die worden veroorzaakt door de hartslag van een persoon.
De techniek, die het NFI "bloedstroomdetectie" noemt, maakt gebruik van geavanceerde beeldanalyse om kleine variaties in de huidskleur te identificeren die door de puls worden veroorzaakt. De techniek wordt volgende week officieel gepresenteerd op de conferentie van de European Academy of Forensic Science in Dublin.
"Forensisch onderzoek naar deepfakes is urgenter dan ooit", vertelt Zeno Geradts, digitaal forensisch onderzoeker bij het NFI en hoogleraar forensische datawetenschap aan de Universiteit van Amsterdam, aan De Telegraaf . "Soms maak ik me zorgen dat straks alles nep is. Wat is er dan nog echt?"
De methode is nog niet volledig gevalideerd voor gebruik in rechtszaken, maar kan al wel als ondersteunende techniek worden ingezet in individuele onderzoeken. Volgens het NFI zal de vraag naar deepfake-analyse de komende jaren naar verwachting sterk toenemen.
Deepfakes – video's die digitaal gemanipuleerd zijn zodat iemand iets zegt of doet wat hij of zij niet doet – kunnen grote problemen veroorzaken, van reputatieschade door nepporno tot maatschappelijke onrust.
"Kunstmatige intelligentie kan veel, maar het kan nog steeds geen overtuigende puls genereren", vertelde Geradts aan de krant . "In een echte video kun je de bloedstroom rond de ogen, het voorhoofd en de kaak detecteren – dat is wat er ontbreekt in deepfakes."
Het idee voor het detecteren van bloedstromen gaat 13 jaar terug, toen het NFI werd gevraagd om video's te beoordelen waarop mensen schijnbaar werden mishandeld of vermoord.
Geradts stuitte op een onderzoek van het Massachusetts Institute of Technology, waaruit bleek dat een hartslag gemeten kon worden via de bloedvaten in het gezicht in een video. Destijds was dit vanwege de slechte videokwaliteit onpraktisch, maar dankzij de verbeterde resolutie en AI-tools is het nu mogelijk.
In recente tests werden vrijwilligers gefilmd terwijl ze smartwatches en hartslagmeters droegen. Hun hartslag werd vervolgens vergeleken met veranderingen in gezichtskleur op 79 punten, onder verschillende licht- en bewegingsomstandigheden. De resultaten werden omschreven als "veelbelovend".
Andere methoden
Hoewel de methode nog niet routinematig forensisch wordt gebruikt, gelooft Geradts dat dit zal veranderen. "Het is slechts een kwestie van tijd. We moeten nieuwe manieren blijven vinden om deepfakes te herkennen. Als mensen niet meer geloven wat ze zien, is dat een ernstig probleem."
Het NFI heeft al andere technieken ontwikkeld om video's te verifiëren, zoals Electric Network Frequency, waarmee lichtflikkerpatronen in een video worden gekoppeld aan het elektriciteitsnet, en Photo Response Non-Uniformity, waarmee de unieke handtekening van een camera wordt geïdentificeerd op basis van beeldpixels.
Geradts benadrukte dat geen enkele methode waterdicht is. "We moeten verschillende benaderingen combineren. We hebben een gereedschapskist vol instrumenten gebouwd. Hoe meer signalen we kunnen detecteren, hoe beter we de authenticiteit van een video kunnen beoordelen."
Reacties (0)