Tag Archives: deepfake

De Opkomst van Deepfakes: Verboden Vruchten in het (Binnen)hof

Summary:  Het vermogen om de werkelijkheid te verdraaien maakt grote sprongen. Dit vermogen hoeft niet altijd voor goede doeleinden te worden gebruikt. De last om oplossingen te bedenken ligt niet alleen bij de technologiebedrijven. Nederlandse politici moeten de verleiding weerstaan om ‘deepfake’ materiaal te produceren of bewust te verspreiden.

Het vermogen om de werkelijkheid te verdraaien maakt grote sprongen. Nieuwe ontwikkelingen in artificial intelligence (AI) maakt het mogelijk om gemakkelijk videos te creëren van speeches of andere gebeurtenissen die nooit zijn gebeurd. Deze video’s worden ook wel ‘deepfakes’ genoemd – het woord is een samentrekking van ‘deep learning’ (een AI techniek) en ‘fake’. De video’s worden gemaakt door bestaande video’s of afbeeldingen te combineren en over ander beeldmateriaal te plaatsen.

Om een idee te krijgen van wat er mogelijk is met makkelijk verkrijgbare software, raad ik een video aan te bekijken van Buzzfeed, waarineen volledig verzonnen toespraak wordt getoond van Barack Obama. Soortgelijke video’s bestaan van Angela Merkel en Vladimir Poetin.  

Studenten van de Universiteit van Berkeley hebben ook een artikel gepubliceerd en een video geüpload met de naam “everyone dance now”. De video toont hoe, door middel van deze nieuwe technologie, zelfs de slechtste dansers – waaronder ik mijzelf schaar – kunnen worden omgetoverd tot dansers van wereldklasse. 

De technologie zal zich in de nabije toekomst verspreiden en verbeteren. Er zijn al Deepfake-apps, zoals FakeApp, die het mensen eenvoudig maakt vervalsingen op basis van hun eigen gegevensmateriaal te creëren. Verbeteringen in gezichtsherkenningsoftware brengt het goedkoop en met gemak creëren van content binnen handbereik van iedereen: iemand kan al heel simpel een aantal gezichtsafbeeldingen downloaden van een persoon, dit verwerken tot een 3D afbeelding en daarna gebruiken in een deepfake video.

Deepfake technologie heeft tal van nuttige toepassingen. Een aantal grote spelers in de entertainmentindustrie, zoals Disney, NBCUniversal en Warner Bros., zijn zich terdege bewust van het artistieke potentieel. De technologie maakt het bijvoorbeeld makkelijker om overleden mensen toch een rol in een film te laten spelen, zoals we in recente Star Wars films hebben gezien. Mogelijkerwijs kan de technologie ook van educatieve waarde zijn.

Deze technologie is echter, niet geheel verrassend, ook al gebruikt voor andere, plattere doeleinden. Eerder dit jaar maakte popcultuur website Vice Motherboard melding van een enorme groep deepfake seksvideo’s. Dit zijn steeds realistischer uitziende video’s waarbij veelal gezichten van beroemdheden – vaak zonder hun toestemming – opeens te vinden zijn in seksscènes waarbij louter anderen zijn betrokken

Dit is slechts het topje van de ijsberg. Een glazen bol is niet nodig om de snode toepassingen van Deepfake te voorzien. De technologie zal in de nabije toekomst worden ‘bewapend’ en gepolitiseerd.

Van Fake News naar Deepfakes

Vandaag de dag maken we ons zorgen over de gevolgen van ‘nepnieuws’ voor de nationale veiligheid en democratie. Recente gebeurtenissen hebben aangetoond hoe valse beweringen – zelfs belachelijke zoals Pizzagate – worden verspreid met ongekend succes dankzij de kracht van sociale media, het bestaan van filterbubbels, en andere vormen van groepspolarisatie. Een week geleden publiceerde de New York Times een verwoestend artikel over hoe een systematische lastercampagne op Facebook, door militairen van Myanmar gericht tegen de Rohingya, mensen heeft aangezet tot het plegen van moorden, verkrachtingen en de grootste gedwongen menselijke migratie in de recente geschiedenis tot gevolg heeft gehad.

De toekomstige toepassing van ‘deepfake’ video’s maakt het nog erger. Soldaten kunnen worden getoond alsof ze onschuldige burgers vermoorden in een oorlogsgebied wat geweld verder kan aanzwellen. Politici kunnen verschijnen in video’s die overspel plegen of andere gruwelijke dingen zeggen of doen die ze niet hebben gedaan.

De effecten van deze video’s zijn zo belangrijk vanwege onze cognitieve voorkeur: soms willen we geloven dat de beelden echt zijn. En de beelden kunnen ‘ongezien’ worden. Zelfs als een video later als nep wordt bestempeld is de schade aangericht.

De almaar goedkopere en betere toepassing van deepfake techologie, biedt ook nieuwe mogelijkheden voor landen of andere actoren met minder goede bedoelingen. De Amerikaanse presidentsverkiezingen, het Brexit-referendum, de Franse verkiezingen en zelfs onze eigen parlementsverkiezingen hebben aangetoond dat we er donder op kunnen zeggen dat verwachten buitenlandse inlichtingendiensten zich in zullen spanne om van deze mogelijkheden gebruik te maken.

Met name journalisten, maar ook technologieplatformen, zullen steeds vaker worden geconfronteerd met de vraag of aangeleverd video- of audiomateriaal wel kan worden vertrouwd? Journalisten zijn uiteraard gewend de betrouwbaarheid van hun bronnenmateriaal te controleren. Echter, naarmate deepfake zich verspreid, staan journalisten en techbedrijven voor een steeds grotere en moeilijkere opdracht om overtuigend de betrouwbaarheid van materiaal aan te tonen.

Wat zijn de oplossingen?

Texas School of Law Professor Bob Chesney en Universiteit van Maryland Professor Danielle Citron beargumenteren in een nog te publiceren artikel dat wetgeving die de destructieve toepassingen van deepfake technologie verbiedt, maar daarbij het onschuldige gebruik in bovengenoemde educatieve instellingen en entertainmentindustrie proberen in stand te houden, gedoemd is te mislukken, vooral wanneer dergelijke wetgeving van algemene strekking is. 

Maar als het probleem technologie is, kan technologie het dan ook zelf niet oplossen? Er is al een kat-en-muisspel gaande tussen aan de ene kant de deepfake technologie en aan de andere kant de technologie om de vervalsingen te identificeren. Dartmouth professor Hany Farid, de pionier van PhotoDNA (een technologie die kinderpornografie identificeert en blokkeert), waarschuwt echter dat we nog tientallen jaren verwijderd zijn van een forensische technologie die het mogelijk maakt met zekerheid een echte video van een neppe te onderscheiden.

‘Digitale handtekeningen’ kunnen ook soelaas bieden. Een digitale handtekening maakt het een partij mogelijk een digitaal object op zo’n manier kan ondertekenen dat dit onomstotelijk bewijs levert van de identiteit van de maker en de authenticiteit van het betreffende materiaal. Bepaalde camera’s van Canon en Nikon beschikken al over een dergelijke functie. Stel u zich voor dat een leverancier alle koopgegevens, inclusief de identiteit van de koper van een bepaald apparaat, bijhoudt in een database die toegankelijk is voor iedereen. Alle video- of audiobestanden die in de toekomst worden uitgegeven, vergezeld van een digitale handtekening, kunnen dan worden gekoppeld aan een specifieke koper.

Herb Lin, onderzoeker aan de Universiteit van Stanford merkte op dat door de inburgering van het gebruik van digitale handtekeningen kijkers worden blootgesteld aan een mix van video’s en audiobestanden, sommige met en sommige zonder een geldige digitale handtekening. Kijkers kunnen dan met grote mate van zekerheid de identiteit en echtheid bepalen van een bepaald audio- of videobestand, ervan uitgaande dat het apparaat niet wordt gestolen van de geregistreerde koper. Deze technologie heeft veel potentieel, ware het niet dat een bekend Russisch bedrijf het systeem van Canon en Nikon al heeft gekraakt.

Dit suggereert de noodzaak van de ontwikkeling van technologieën zoals de digitale handtekening. Bedrijven die als eerste zouden moeten investeren in forensische technologie zijn YouTube en Facebook – die het merendeel van de online videocontent beheren.

Een goed uitgangspunt hierbij is dat platformen transparante normen en procedures ontwikkelen en toepassen voor het beoordelen van klachten van derden die in een deepfake voorkomen zonder hun toestemming (derden zouden dit niet kunnen bewijzen, ze waren eigenlijk niet in de video).

Weersta de verleiding

Deep fake technologie zal politici, hun partijen en gelieerde organisaties in de verleiding brengen boodschappen met gefingeerde inhoud te produceren en te verspreiden. Deepfake materiaal heeft de potentie de uitslag van de verkiezingen te beïnvloeden, vooral wanneer de distributeur in staat is de publicatie zodanig te timen dat er voldoende tijd is voor de deepfake om te circuleren, maar niet genoeg tijd is voor het slachtoffer om binnen dit bestek de dader te ontmaskeren en de deugdelijkheid van de materie te betwisten of te ontkrachten (ervan uitgaande dat het überhaupt kan worden ontkracht).

In Washington DC is er op dit moment sprake van het instellen van een normbeleid: gelieerde mensen en organisaties moeten zich ertoe verbinden nooit deepfake materiaal te produceren of bewust te verspreiden zonder de toestemming van de persoon weergegeven in de video. Gezien het huidige politieke klimaat in de VS, de polarisering van de media en het moddergooien tijdens de presidentsverkiezingen van 2016, ben ik pessimistisch.

Maar Nederland is anders. Eerder dit jaar werd gemeld door De Nieuws van BNNVara dat DENK een advertentie had besteld van een portret van Wilders met daarop de volgende tekst gedrukt: “Na 15 maart gaan wij Nederland zuiveren.” Deze advertentie zou op het internet verschijnen vlak vóór de Tweede Kamerverkiezingen. DENKs voornemen toont aan dat het juist de verboden vruchten zijn die vaak niet te versmaden zijn en dat ook de Nederlandse democratie niet immuun is voor het gebruik van nep-materiaal. Echter, dat DENK, alvorens het tot plaatsing overging, tot bezinning kwam, duidt op het bestaan en naleven van bepaalde normen en waarden, zelfs op het politieke slagveld.  

Terwijl we ons hier te lande voorbereiden op de gemeenteraadsverkiezingen en Provinciale Statenverkiezingen in maart en op het continent op de Europese Parlementsverkiezingen in mei, loont het om alvast na te denken over het instellen van een norm voor politici en daarmee gelieerde personen op alle niveaus binnen en buiten de regering: vroegtijdige buy-ins helpen latere catastrofen te voorkomen.

Deep fake technologie zal zich in de nabije toekomst verspreiden. Het is makkelijk de vinger te wijzen in de richting van de technologiebedrijven en de last om oplossingen te bedenken daar neer te leggen. Doch, moeten wij niet tegelijkertijd met de vinger van de andere hand richting Den Haag wijzen? Berust op politici niet de plicht om de verleiding van deepfake te beteugelen?

@SmeetsMWE