- 07:45Trump bereidt zich voor op ongekende top met Afrikaanse leiders
- 17:30WHO waarschuwt voor de alarmerende omvang van de wereldwijde eenzaamheidscrisis
- 17:18Sean 'Diddy' Combs vrijgesproken van sekshandel, veroordeeld voor minder ernstige aanklacht
- 17:00Google krijgt boete van $ 314 miljoen in collectieve rechtszaak over mobiele telefoongegevens
- 16:30Nederland verliest Nobelprijs omdat winnaar Nederlandse nationaliteit verliest
- 16:15Marokko ziet grootste netto-instroom van miljonairs ooit in 2025
- 15:30De oliemarkt kampt met onzekerheid: Dreigend wereldwijd tekort ondanks verhoogde productie?
- 15:10Marokko belicht zijn autonomiemodel tijdens een internationaal seminar bij de VN
- 14:52Amerikanen gealarmeerd nu democratie bedreigd wordt door toenemend politiek geweld
Volg ons op Facebook
Nederlandse forensisch experts ontwikkelen detector voor deepfake-video's
Het Nederlands Forensisch Instituut (NFI) heeft een nieuwe methode ontwikkeld om deepfake-video's te identificeren. Dit gebeurt door subtiele veranderingen in de gezichtskleur te detecteren die worden veroorzaakt door de hartslag van een persoon.
De techniek, die het NFI "bloedstroomdetectie" noemt, maakt gebruik van geavanceerde beeldanalyse om kleine variaties in de huidskleur te identificeren die door de puls worden veroorzaakt. De techniek wordt volgende week officieel gepresenteerd op de conferentie van de European Academy of Forensic Science in Dublin.
"Forensisch onderzoek naar deepfakes is urgenter dan ooit", vertelt Zeno Geradts, digitaal forensisch onderzoeker bij het NFI en hoogleraar forensische datawetenschap aan de Universiteit van Amsterdam, aan De Telegraaf . "Soms maak ik me zorgen dat straks alles nep is. Wat is er dan nog echt?"
De methode is nog niet volledig gevalideerd voor gebruik in rechtszaken, maar kan al wel als ondersteunende techniek worden ingezet in individuele onderzoeken. Volgens het NFI zal de vraag naar deepfake-analyse de komende jaren naar verwachting sterk toenemen.
Deepfakes – video's die digitaal gemanipuleerd zijn zodat iemand iets zegt of doet wat hij of zij niet doet – kunnen grote problemen veroorzaken, van reputatieschade door nepporno tot maatschappelijke onrust.
"Kunstmatige intelligentie kan veel, maar het kan nog steeds geen overtuigende puls genereren", vertelde Geradts aan de krant . "In een echte video kun je de bloedstroom rond de ogen, het voorhoofd en de kaak detecteren – dat is wat er ontbreekt in deepfakes."
Het idee voor het detecteren van bloedstromen gaat 13 jaar terug, toen het NFI werd gevraagd om video's te beoordelen waarop mensen schijnbaar werden mishandeld of vermoord.
Geradts stuitte op een onderzoek van het Massachusetts Institute of Technology, waaruit bleek dat een hartslag gemeten kon worden via de bloedvaten in het gezicht in een video. Destijds was dit vanwege de slechte videokwaliteit onpraktisch, maar dankzij de verbeterde resolutie en AI-tools is het nu mogelijk.
In recente tests werden vrijwilligers gefilmd terwijl ze smartwatches en hartslagmeters droegen. Hun hartslag werd vervolgens vergeleken met veranderingen in gezichtskleur op 79 punten, onder verschillende licht- en bewegingsomstandigheden. De resultaten werden omschreven als "veelbelovend".
Andere methoden
Hoewel de methode nog niet routinematig forensisch wordt gebruikt, gelooft Geradts dat dit zal veranderen. "Het is slechts een kwestie van tijd. We moeten nieuwe manieren blijven vinden om deepfakes te herkennen. Als mensen niet meer geloven wat ze zien, is dat een ernstig probleem."
Het NFI heeft al andere technieken ontwikkeld om video's te verifiëren, zoals Electric Network Frequency, waarmee lichtflikkerpatronen in een video worden gekoppeld aan het elektriciteitsnet, en Photo Response Non-Uniformity, waarmee de unieke handtekening van een camera wordt geïdentificeerd op basis van beeldpixels.
Geradts benadrukte dat geen enkele methode waterdicht is. "We moeten verschillende benaderingen combineren. We hebben een gereedschapskist vol instrumenten gebouwd. Hoe meer signalen we kunnen detecteren, hoe beter we de authenticiteit van een video kunnen beoordelen."
Reacties (0)