Problemen met deepfakes: 4 vragen en antwoorden
Beroemdheden waarschuwen voor nepvideo's waarin het lijkt of zij reclame maken voor bepaalde producten. Maar in werkelijkheid zijn het deepfakes: nepvideo's die gemaakt zijn met kunstmatige intelligentie. En dat gebeurt nu ook in het Nederlands, met voetballer Virgil van Dijk en nieuwspresentatrices. Maar hoe herken je een deepfake en waarom duiken ze zo vaak op? Vier vragen en antwoorden.
1. Waar komen al die deepfakes vandaan? Hoe worden ze gemaakt?
Deepfakes zijn er in verschillende vormen. Zo zijn er deepfakes waarbij het gezicht van een spreker wordt vervangen met dat van iemand anders. Of deepfakes waarbij je mensen dingen laat zeggen die ze nooit gezegd hebben.
En dan zijn er nog de deepfakes die vanaf de grond af aan nieuw worden opgebouwd. Ze hebben één ding gemeen. Ze zijn allemaal gemaakt met kunstmatige intelligentie en zien er allemaal behoorlijk echt uit.
Nieuwe techniek
Deepfakes bestaan al langer, maar de ontwikkeling is een stroomversnelling geraakt. Dat komt doordat de kunstmatige intelligentie-modellen steeds beter zijn geworden. Er is steeds meer data waarmee de modellen kunnen leren en de rekenkracht van de computers is toegenomen.
Vooral de opkomst van een techniek die Generatieve Adverserial Networks heet, heeft de ontwikkeling versneld, zegt Parya Lotfi, van DuckDuckGoose, een bedrijf dat gespecialiseerd is het maken van technologie om deepfakes mee te herkennen.
Gezichten namaken
"Zo'n netwerk bestaat uit twee delen. Het ene wordt getraind om te leren hoe een object, bijvoorbeeld een gezicht, eruit ziet en gaat dat daarna proberen na te maken. Net als een kind dat leert tekenen."
Het andere deel van het netwerk kijkt daarna of de gezichten die zijn gemaakt ook goed lijken op een echt persoon. "Als het dat goed doet, krijgt het positieve feedback. En andersom ook", zegt Lotfi. En op die manier wordt de AI steeds beter.
Eerst waren die geavanceerde technieken alleen maar beschikbaar voor wetenschappers. Maar langzamerhand is het steeds beter toegankelijk geworden.
En dat is duidelijk te merken. Want het afgelopen jaar zijn er steeds meer apps en andere tools voor iedereen toegankelijk geworden, waarmee het makkelijker (en goedkoper) is geworden om overtuigende nepvideo's, afbeeldingen en geluidsfragmenten te maken. Niet voor niets noemen sommige wetenschappers de namaakbeelden ook wel "cheapfakes". Omdat de kunstmatige intelligentie-modellen steeds beter worden, zijn ook de video's die ze maken steeds nauwkeuriger en dus moeilijker van echt te onderscheiden.
2. Hoe gevaarlijk zijn deepfakes?
Potentieel heel gevaarlijk. Denk bijvoorbeeld aan een videogesprek met de baas van een bank, waarin een medewerker gevraagd wordt om een aanzienlijk bedrag over te maken vanaf de rekening van de bank. Dat overkwam een medewerker van de Nederlandse bank Bunq. Oprichter Ali Niknam plaatste er een bericht over op LinkedIn.
Gelukkig trapte de medewerker er niet en werd er geen geld overgemaakt. Maar het gevaar is duidelijk: met voldoende beeld en geluid kan kunstmatige intelligentie een geloofwaardige video of zelfs livegesprek met iemand nabootsen.
Of zoals in Spanje waar naaktfoto's werden verspreid van minderjarige meisjes. Die foto's waren gemaakt door AI op basis van foto's van de meisjes met kleren aan. De moeder van een van de slachtoffers trok aan de bel via sociale media. Er zijn ook zat voorbeelden van seksvideo's waarbij het gezicht van een slachtoffer in een seksvideo wordt geplaatst.
En dan hebben we het nog niet over de verspreiding van nepnieuws, zoals bijvoorbeeld gebeurde net na de invasie van Oekraïne door Rusland. Kort erna dook ineens een deepfake-video van de Oekraïense president Zelenski op. In de nepvideo werd gedaan alsof Zelenski een oproep deed aan Oekraiënse soldaten om hun wapens neer te leggen. De video werd verspreid via Facebook en werd uiteindelijk door moederbedrijf Meta verwijderd.
3. Waarom is het moeilijk om de verspreiding van deepfakes te bestrijden?
Tussen 2019 en 2020 met is de hoeveelheid deepfakes op internet met 900 procent gestegen. En experts verwachten dat over drie jaar zo'n 90 procent van alle online content wordt gemaakt of bewerkt met behulp van AI.
Dat komt voor een groot gedeelte door het gemak waarmee steeds meer mensen laagdrempelig deepfakes kunnen maken. En met alle sociale netwerken als TikTok, Instagram en Snapchat is het delen ervan ook een peulenschil. Ook al verbieden veel van die netwerken de verspreiding van misleidende content.
Toch betwijfelen experts al langer of die bedrijven wel in staat zijn om de verspreiding van nepvideo's, nepfoto's en nepnieuws tegen te gaan.
Dat het niet strafbaar is om deepfakes te maken, helpt ook niet bepaald. Dat mag namelijk, als je je maar houdt aan bestaande regels, legt jurist Charlotte Meindersma van Charlotte's Law uit. "Daar gelden dezelfde regels voor als voor andere content. Zoals bijvoorbeeld dat de content niet iemand mag schaden. Je mag niet iemands privéleven en eer en goede naam schenden."
Maar hoe herken je deepfakes? Dat is een lastige. Want het wordt steeds moeilijker om met het blote oog te zien of het gaat om échte beelden of nepbeelden die door kunstmatige intelligentie gemaakt zijn.
4. Kunnen we AI inzetten om deepfakes te herkennen?
Ja, dat gebeurt ook al. Er zijn bedrijven, instellingen en wetenschappers die daar mee bezig zijn. "Software die gemaakt is om deepfake-video's te herkennen. Net zoals een virusscanner is gebouwd om virussen op te sporen", zegt informatica hoogleraar Theo Gevers van de Universiteit van Amsterdam.
"Maar claimen dat je alles kunt detecteren, is niet realistisch. Dat is onmogelijk. Want er komen constant nieuwe methodes", zegt Gevers.
Het is een wedloop tussen de ontwikkelaars van de modellen die deepfakes maken en de makers van de programma's waarmee ze ontdekt kunnen worden. "Het zijn zulke kleine imperfecties. Dat moet echt in de data zitten. Het is het kwaad met het middel bestrijden. Goedwillende AI inzetten om kwaadwillende AI te bestrijden", zegt hij.
Ondanks dat het steeds moeilijker wordt om nep van echt te onderscheiden, heeft Marcel Worring, hoogleraar Multimedia Analytics aan de Universiteit van Amsterdam, een laatste tip.
"Gebruik je gezond verstand. Een acteur als Tom Hanks heeft het echt niet nodig om een tandartsverzekering aan te prijzen in een of andere reclame. Als je dat ziet moet je meteen denken: zou hij dit echt gedaan hebben? En als je kijkt waar het gepost is en waarom, dan begin je al hints te krijgen dat het misschien niet juist is."
Je hebt niet alle cookies geaccepteerd. Om deze content te bekijken moet je deaanpassen.