Echt nep

Beeld: Bouke van Balen. Foto: Olivier Overberg

15 september 2019, 10:00

Auteur: Bouke van Balen

Echt nep

Beeld: Bouke van Balen. Foto: Olivier Overberg

15 september 2019, 10:00

Auteur: Bouke van Balen

Technologische ontwikkelingen komen nogal eens uit de opvallende en minder elegante hoeken van de samenleving. Zo komen nieuwe technologieën vaak voort in tijden van oorlog. Nu blijkt dat de porno-industrie er ook wat van kan, zag columnist Bouke van Balen.

In 2017 begon een anonieme gebruiker op Reddit onder de naam Deepfake met het posten van pornofilmpjes van bekende actrices. De filmpjes waren nep, maar leken nét echt. Met behulp van ‘kunstmatig intelligente’ software plakte hij de hoofden van onder andere Emma Watson, Katy Perry en Scarlett Johansson op porno-actrices. Deepfake slaagde er beangstigend goed in om de filmpjes echt te doen lijken. Ze waren zogezegd echt nep.

Reddit, Pornhub en Twitter besloten vervolgens om de nieuwgedoopte deepfake-porno te verbieden, maar op het internet is dat makkelijker gezegd dan gedaan. De technologie die het manipuleren van video’s op deze manier mogelijk maakt is inmiddels al heel verfijnd.

Deepfake heeft niet alleen maar nadelen. Zo ging er in China vorige week een app viral waarmee je de hoofdrol kan spelen in je favoriete film of serie. En laten we eerlijk zijn, we willen allemaal wel eens `a la Daenerys Targaryen op een draak een leger White Walkers verbranden. Behalve entertainment kunnen deepfakes gebruikt worden in het onderwijs. Ik moet toegeven dat een lesje natuurkunde van Einstein me beter zou zijn bevallen dan al die uren die ik met meneer Buiskool heb besteed. Niets ten nadele van hem, maar alles ten voordele van Einstein.

Er komt zelfs een punt waarop we niet meer weten wie welke kandidaat wat heeft laten zeggen

Tegelijkertijd kunnen allemaal inzien waarom het een slecht idee is om iedereen de mogelijkheid te geven om het hoofd van willekeurige mensen in een pornovideo te ‘shoppen’. Wanneer we nep niet meer van echt kunnen onderscheiden zal de ene na de andere nepsekstape verspreid worden. Twee weken geleden nog was presentatrice en NOS-nieuwslezer Dionne Stax slachtoffer van een deepfake pornovideo. Het is dat we het nu nog doorhebben wanneer zoiets nep is. Deepfake kan namelijk enorme gevolgen hebben – en die zijn wél echt.

Stel dat er Amerikaanse verkiezingen aankomen, en dat daar iemand kandidaat is die een campagne voert op basis van het verspreiden van angst. Iemand die er sowieso niet vies van is om af een toe een nepnieuwsje de wereld in te tweeten. Het moment dat zo iemand de technologie in handen krijgt om zijn tegenstanders alles te laten zeggen en doen wat hij maar wilt, zijn de rapen echt gaar. Nepnieuws krijgt een nieuwe dimensie door deepfakes. Het wordt Echtnepnieuws. En dat kan een bedreiging van onze democratie zijn. Er komt een punt waarop we niet meer weten welke kandidaat wat wel of niet gezegd heeft. Er komt zelfs een punt waarop we niet meer weten wie welke kandidaat wat heeft laten zeggen. Dat maakt stemmen knap lastig.

Maar deepfake gaat dieper. We vormen ons beeld van iemand op basis van diens doen en laten. Wanneer we mensen alles kunnen laten doen wat we willen, kunnen we daarmee elkaars identiteit aanpassen. Wat als iedereen opeens denkt dat je in een pornofilm speelt terwijl je dat nooit hebt gedaan? Wie ben jij dan om dat te ontkennen? Als iedereen het gelooft, wordt het misschien wel waar.

We zijn dichter bij deze realiteit dan het lijkt. De digitalisering stelt ons dringende vragen. Aan ons nu de taak om te antwoorden.

lees ook:

Nieuwsbrief

Elke drie weken houden we je op de hoogte van wat we schreven en wat we lazen in de Red Pers-nieuwsbrief.

Zoeken

Doneren

Wij bieden jonge, aspirerende journalisten een podium én begeleiding. Dat kunnen we nog beter met jouw steun. Die steun komt met twee voor de prijs van één, want onze sponsor matcht jouw donatie. Geef jij ons vijf euro? Dan ontvangen wij een tientje.