Zijn 'deepfakes' de nieuwe grens van digitale criminaliteit?

De technologie voor speciale effecten heeft de afgelopen decennia een ware hausse gekend, waarbij CGI van rudimentair grof en primitief naar bijna niet te onderscheiden is van de werkelijkheid. Nu het creëren van waarheidsgetrouwe beelden steeds gewoner wordt, anticiperen zowel politieke experts als strafrechtexperts op paniek rond de zogenaamde 'deep fake'-technologie, die de aanhoudende internationale discussie over' nepnieuws 'verder kan bemoeilijken. Maar wat is precies een 'diepe nep' en in hoeverre vormt deze technologie in de toekomst een bedreiging?





Diep neppe (soms gestileerd als 'deepfake') technologie verwijst naar gesynthetiseerde en / of over elkaar geplaatste afbeeldingen en / of video's die zijn gemaakt door kunstmatige intelligentie met behulp van bestaande afbeeldingen en video's. Met behulp van machine learning kan deze technologie in theorie overtuigende beelden creëren van een persoon die een handeling uitvoert die in het echte leven nooit heeft plaatsgevonden.

Owen Williams, een professionele software-engineer en visual effects-artiest, gaf een eenvoudige uitleg.



'Het is een manier om een ​​geautomatiseerd softwaresysteem te gebruiken om iemands gezicht in een video te vervangen door een ander gezicht dat veel automatischer en overtuigender is dan mogelijk was met technologie uit het verleden', vertelde Williams. Oxygen.com



Williams merkte op dat reguliere, populaire films zoals 'Jurassic Park' en 'Blade Runner: The Final Cut' computersoftware voor bepaalde scènes gebruikten op manieren die mogelijk een voorloper waren van diepe vervalsingen: 'In de filmindustrie is dit heel gewoon. Laten we zeggen dat je een personage hebt dat een stunt moet uitvoeren en je wilt liever dat zijn gezicht zichtbaar is. De klassieke oplossing zou zijn dat je ze alleen van achteren zou zien, of dat hun haar in hun gezicht zou zitten, zodat je niet kon zien dat het een dubbelganger was. Maar er is een behoorlijk ingewikkelde geschiedenis van filmmakers die computers gebruiken om het gezicht van een acteur boven een stuntdubbel te plaatsen. '



'Vroeger was het een heel handmatig proces,' vervolgde Williams. 'Nu, met diepe neptechnologie, voed je een computer twee dingen: eerst de video die je gaat vervangen, en dan een aantal inputs van het gezicht waarmee je gaat vervangen. Je moet genoeg afbeeldingen krijgen van een persoon die verschillende gezichtsuitdrukkingen maakt en vanuit verschillende hoeken. Je maakt een bibliotheek van hoe het gezicht van deze persoon eruit kan zien in verschillende situaties, en dan gaat de computer door en kijkt naar de video. Het heeft ook geen exacte match nodig. Het kan squishen en veranderen wat het in de bibliotheek heeft om te passen bij wat het nodig heeft. Waar vroeger tientallen artiesten honderden uren voor nodig hadden om een ​​echt gecompliceerd effect uit te voeren, is nu slechts een druk op de knop. '

Een facet van deze technologie waar mensen zich zorgen over maken, is dat een persoon niet per se zijn gezicht hoeft in te dienen om dit proces uit te voeren, gezien het aantal foto's dat er online is van de meeste mensen - vooral van beroemdheden en politieke figuren.



'Er zijn genoeg foto's van een beroemdheid onder voldoende hoeken om die bibliotheek [zonder toestemming] te kunnen maken', zei Williams. 'Daar is een bepaalde hoeveelheid werk voor nodig, maar voor elke marginaal populaire figuur zal dat spul bestaan. Ik heb het gevoel dat het minder waarschijnlijk is dat dit mogelijk zou zijn voor een gewoon persoon. '

De eerste diepe nepvideo's verschenen eind 2017 op Reddit-forums, volgens Variety ​Een gebruiker beweerde zijn computer te hebben gebruikt om zeer realistische pornografische video's te maken van verschillende beroemdheden die zich bezighouden met seksuele activiteiten die in het echte leven nooit hebben plaatsgevonden. De gebruiker beweerde dat hij zijn computer duizenden foto's van de sterren had gevoed, waaruit de AI de afgebeelde gezichtsuitdrukkingen en bewegingen kon halen. Een app die door diep neppe makers werd gebruikt en op Reddit werd gedeeld, werd uiteindelijk meer dan 100.000 keer gedownload. (Reddit zou dit soort inhoud uiteindelijk verbieden en zei dat het in strijd was met hun beleid inzake 'onvrijwillige pornografie', volgens The Verge

Het realisme dat dit medium op dit moment kan bereiken, wordt door Williams betwijfeld.

'Als je ooit echt naar een van deze diepe vervalsingen hebt gekeken ... er is daar een zekere mate van gekheid,' zei Williams. 'Ze zijn niet gepolijst. Het wordt echter waarschijnlijk beter en beter, vooral omdat Hollywood er belang bij heeft dit geautomatiseerd te maken in plaats van dure artiesten te betalen. '

Evenzo vermoedde Williams dat ondanks de paniek rond diepe nepporno betekent de veranderende culturele opvatting over de aard van zaken als wraakporno of gelekte naaktfoto's dat mensen die dit soort media creëren waarschijnlijk veroordeeld worden en niet gevierd worden, zelfs niet binnen de entertainmentindustrie voor volwassenen.

'Het zal nooit mainstream worden', theoretiseerde Williams. 'Na ' The Fappening 'gebeurde er iets op Reddit, mensen waren in staat om het gesprek te veranderen en te zeggen:' Dit is geen schandaal, het is een seksuele misdaad. ' Dus ik zie dit gewoon niet zo'n schandaal worden als mensen denken dat het zal worden. Mensen kunnen ook vrij gemakkelijk de originele porno vinden waaruit de diepe nep is gemaakt, wat betekent dat het vrij gemakkelijk te ontmaskeren is. '

Maar het baart niet alleen zorgen omdat het kan worden gebruikt om nepporno van beroemdheden te maken. Mensen maken zich ook zorgen over de politieke gevolgen.

Politieke experts begonnen in 2018 te schrijven over de verspreiding van diepe vervalsingen. Een Guardian-artikel van november van dat jaar merkte de virale verspreiding op van een video die zogenaamd president Donald Trump afbeeldt die de natie van België aanmoedigt om zich terug te trekken uit het klimaatakkoord van Parijs. Dit leidde tot een grotere discussie over het potentieel voor verschillende regeringen om deze technologie te gebruiken in massale desinformatiecampagnes, een gesprek dat al op gang was gekomen dankzij het lopende onderzoek naar de betrokkenheid van Rusland bij de Amerikaanse presidentsverkiezingen van 2016.

De paniek rond diepe vervalsingen inspireerde zelfs de redactie van Bloomberg Media Group om een ​​sterk geformuleerde opinie over de kwestie te schrijven.

'Videobewijs is een pijler van het strafrechtsysteem geworden ... juist omdat film zo'n betrouwbaar verslag lijkt van iemands spraak of daden. Diepe vervalsingen kunnen dergelijk bewijs mogelijk verdacht maken, ' Zij schreven in juni 2018. 'Een allesoverheersende uitdaging zal dus zijn om deze vervalsingen te identificeren en op te roepen - als dat mogelijk is.'

Williams was het ermee eens dat de aard van diepe vervalsingen een bedreiging vormen voor onze noties van 'realiteit' met betrekking tot videobewijs, maar merkte op dat dit juridische moeras niet uniek is voor ons hedendaagse digitale landschap.

'Het komt een beetje neer op het idee dat mensen die video hebben gelijk aan waarheid, wat nooit het geval is geweest. We wisten dit vanaf Rodney King. Of denk aan Eric Garner : Mensen dachten dat [de officier die hem vermoordde] onschuldig was, ongeacht welke video van het incident voorspeld was. Voor mij [veel van de angsten rond diepe vervalsingen] lijken mij enigszins ongegrond. '

Williams noemde verschillende andere incidenten waarbij geen sprake was van diepgewortelde neptechnologie, die aantoonden op welke manieren video brutaal werd gemanipuleerd om de publieke opinie over een kwestie te vertekenen, James O'Keefe's controversiële verwijdering van ACORN en een recent schandaal waarbij video die zogenaamd CNN-verslaggever Jim Acosta afbeeldt die een medewerker van het Witte Huis aanvalt

Williams 'uiteindelijke conclusie was dat de hysterie rond diepe vervalsingen ietwat overdreven is.

'Wat ik zie gebeuren, is dat het in twee richtingen werkt. Als een video uitkomt en deze is echt, zullen mensen beweren dat deze nep is. Als een video uitkomt en deze nep is, zullen mensen beweren dat deze echt is. Elk geval gaat uit van een bepaalde hoeveelheid waarheid die aan video wordt toegewezen [zelf]. Het is moeilijk te weten in welke richting dit allemaal zal uitgaan. Als De plasband kwam uit, je weet bijvoorbeeld precies wat er zou gebeuren: de helft van de mensen zou zeggen: 'Dit is bulls - t, het is een acteur!' en de helft van de mensen zou zeggen: 'Daar is het! Het is echt!' Er zou dus niets echt veranderen. Dat is meestal wat er gebeurt met nieuwe technologie: dingen veranderen niet zo veel als mensen denken. '

[Foto: SAUL LOEB / AFP / Getty Images]

Populaire Berichten