in

Verontrustende app genereert naaktfoto’s van geklede vrouwen

Een programma voor Windows- en Linux-computers heeft aan een foto van een vrouw genoeg om via kunstmatige intelligentie een naaktfoto te genereren.

De deepfake-technologie is groot geworden dankzij een Reddit-forum waarbij de hoofden van beroemdheden op de hoofden van pornoactrices werden geplakt. Daarvoor heeft de deepfaker nog wel een flinke computer en heel veel tijd nodig om het te laten werken. Maar de verontrustende AI-app DeepNude heeft aan veel minder informatie genoeg, zo ontdekte techsite Motherboard.

Sinds maart is DeepNude te downloaden voor Windows- en Linux-computers. Door de app een foto te geven van een geklede vrouw waarbij de lichaamsvormen nog een beetje te zien zijn, verandert het automatisch de foto tot een naaktkiekje. Die berekening is binnen 30 seconden klaar.

Geen gluurder?
De anonieme maker van de app laat aan Motherboard weten dat de app werkt dankzij een studie van de University of California, waarbij zwart-witfoto’s werden omgezet naar kleurenfoto’s met het algoritme pix2pix. Adobe heeft een zelfde technologie in handen.

In dit geval heeft de maker het AI-systeem gevoed met 10.000 plaatjes van naakte vrouwen. Hij zegt geen viespeuk te zijn. “Ik ben geen gluurder, ik ben een tech-enthousiasteling. Continu het algoritme aan het verbeteren. Recentelijk vroeg ik mezelf af, ook vanwege eerdere mislukkingen en economische problemen, hoe ik geld kon verdienen aan dit algoritme. Daarom heb ik DeepNude gemaakt.”

De app is gratis uit te proberen, maar voor 50 dollar wordt het grote watermerk weggehaald. Binnenkort is hij van plan om hetzelfde trucje uit te halen met naaktfoto’s van mannen.

‘Absoluut angstaanjagend’
Experts reageren geschokt op het nieuwe programma. ‘Dit is absoluut angstaanjagend’, zegt Katelyn Bowden tegen Motherboard. Zij is oprichter van de anti-wraakporno-organisatie Badass. “Nu kan iedereen slachtoffer worden van wraakporno, zonder ooit dan ook maar één naaktfoto te hebben genomen.”

Hoogleraar rechten Danielle Citron noemt het een ‘invasie op de seksuele privacy’. “Een deepfake-slachtoffer zei tegen mij dat het voelde alsof duizenden haar naakt hadden gezien. Het voelde alsof haar lichaam niet meer van haar was.”

Kijk ook: Zo werken deepfakes

Bron : RTL Nieuws
Foto : Foto van actrice Gal Gadot, origineel (links) en fake (rechts) met gebruik van DeepNude app. Gecensoreerd via Motherboard

Reacties

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Loading…

0

Waarom AliExpress zo goedkoop pakketjes kan versturen

EU en Marokko werken aan nauwere samenwerking