Technologie

Het eindigt niet bij Taylor Swift: hoe u zich kunt beschermen tegen AI-deepfakes en seksuele intimidatie

Алекс Рейн 24 Февраля, 2026
247continiousmusic

Vorige week seksueel expliciete deepfake-beelden van Taylor Swift naar verluidt gemaakt gebruik van kunstmatige intelligentie werden verspreid via sociale media. Het was slechts het nieuwste – en meest spraakmakende – voorbeeld van de groeiende gevaren van deepfakes en digitale intimidatie.

Swift is niet de eerste vrouw die dit overkomt, en ook niet de laatste. Het is veilig om te zeggen dat bijna elk ander slachtoffer van pornografische deepfake minder middelen heeft dan een miljardair-popster met miljoenen fans over de hele wereld die heel veel online zijn en er verstand van hebben. Maar het feit dat dit kan gebeuren tot zelfs Taylor Swift heeft de kwestie opnieuw onder de aandacht gebracht en bij een breder publiek gebracht. Het is zelfs een impuls voor federale wetgeving om het misbruik te bestrijden, zeggen voorstanders.

Dinsdag introduceerden Amerikaanse senatoren de tweeledige partij Verstoor de wet op expliciete vervalste afbeeldingen en bewerkingen zonder wederzijds goedvinden van 2024 (DEFIANCE Act) om niet-consensuele deep-fake-pornografie aan te pakken en te ontmoedigen. Het wetsvoorstel zou slachtoffers van ‘digitale vervalsing’ – ‘gecreëerd door het gebruik van software, machine learning, kunstmatige intelligentie of enig ander computergegenereerd of technologisch middel om ten onrechte authentiek te lijken’ – de daders civielrechtelijk kunnen aanklagen, waardoor ze voor het eerst de kans krijgen om gerechtigheid te zoeken.



Slachtoffers van niet-consensuele deepfake-pornografie hebben niet veel succes gehad bij het aanklagen van mensen die deepfake-pornografie creëren, distribueren of vragen, aldus Omny Miranda Martone, die met wetgevers aan het wetsvoorstel werkte als oprichter en CEO van de Vereniging ter Preventie van Seksueel Geweld (SVPA) . De technologie is nog steeds vrij nieuw, en net als bij andere maatschappelijke kwesties met betrekking tot technologie moeten de wetten een inhaalslag maken. Intussen is de technologie vooruitgegaan om het voor iedereen nog makkelijker te maken om door AI gegenereerde deepfakes te maken.

'De hoeveelheid seksueel geweld tegen gewone mensen is enorm gestegen.'

'Tot ongeveer twee jaar geleden. . . iemand had een krachtige computer nodig, hij moest veel weten over technologie en in staat zijn om met een verwarrend systeem te werken en mogelijk zelfs het systeem zelf te bouwen. En ze hadden veel foto's van het slachtoffer nodig om het er realistisch uit te laten zien', legt Martone uit. 'Maar de AI-technologie is aanzienlijk vooruitgegaan, en het is op het punt waarop iedereen echt realistisch ogende, niet-consensuele, deepfake-pornografie kan maken, met behulp van slechts een of twee foto's. Ze hoeven niet veel van technologie te weten, ze kunnen gewoon een app of website op hun telefoon of computer openen en die binnen enkele seconden maken.'

Dat is tegenwoordig verbijsterend, aangezien in 2017 één op de acht Gebruikers van sociale media meldden dat ze het doelwit waren van niet-consensuele pornografie en dat één op de twintig volwassenen op sociale media dader was, volgens de Cyber-burgerrechteninitiatief .

Gezien deze technologische vooruitgang – en het feit dat ‘iedereen met internettoegang dit gemakkelijk kan creëren’ – ‘is de hoeveelheid seksueel geweld tegen gewone mensen enorm gestegen’, zegt Martone. Beroemdheden waren het meest voorkomende doelwit vanwege de beschikbaarheid van hun afbeeldingen. 'Maar nu hebben [daders] nog maar een paar foto's nodig die ze van iemands LinkedIn of sociale media of de website van hun bedrijf kunnen halen', legt Martone uit.

Dit is onevenredig schadelijk voor vrouwen, aldus Margaret Mitchell, voormalig co-leider van Google's Ethical Artificial Intelligence-team. 'Het is extreem schendend, het heeft een extreem traumatisch psychologisch effect op je als je er het slachtoffer van bent. Het werkt ook objectiverend, dus het beïnvloedt andere mensen om je door een seksuele lens te zien, in tegenstelling tot een professionele lens. Dan betekent dat dat het de kansen kan beïnvloeden', vertelt ze aan 247CM.

'Vrouwen hebben er al moeite mee om gezien te worden als leiders, om serieus genomen te worden op de werkvloer. Wanneer dit soort inhoud rondzweeft, kan dat van invloed zijn op de manier waarop vrouwen promotie kunnen maken en meer leiderschapsposities kunnen bekleden', vervolgt Mitchell, die nu hoofdethiekwetenschapper is bij Hugging Face, een open platform voor AI-bouwers. 'Het sijpelt in zoveel dingen door op een manier die soms heel moeilijk te traceren is, maar die fundamenteel van invloed is op hoe je jezelf ziet, hoe je over jezelf denkt en hoe andere mensen je behandelen.'

In het geval van Swift waren de afbeeldingen afkomstig van 4kan en een groep op Telegram die wordt gebruikt voor het verspreiden van beledigende beelden van vrouwen, meldde 404 Media . Designer, een gratis Microsoft AI-generator, wordt volgens de outlet vaak gebruikt om de niet-consensuele inhoud te produceren. In reactie op de berichtgeving heeft Microsoft een maas in de wet gesloten waardoor Designer door AI gegenereerde porno van beroemdheden kon maken.

Maar ondertussen stroomden de beelden al snel over naar X, voorheen bekend als Twitter. In een ongebruikelijk voorbeeld van inhoudsmoderatie in het Elon Musk-tijdperk stelde X een tijdelijke blokkering in op een zoekopdracht naar 'Taylor Swift', wat de verspreiding vertraagde, maar het was niet in staat om alle afbeeldingen te verwijderen, CBS News gemeld . De reactie van X volgde op legioenen Swifties die de berichten rapporteerden en eisten dat de site ze zou verwijderen. Het kwam ook nadat de berichten al wijdverspreid waren – één had al 45 miljoen views, 24.000 retweets en honderdduizenden likes en bookmarks geklokt in 17 uur voordat het account van die geverifieerde gebruiker werd opgeschort, volgens De rand . Op maandag 29 januari was de blokkering verlopen.

Hoewel de SVPA al een tijdje met het Congres samenwerkt – Martone zegt dat ze vorig jaar een open brief hebben gestuurd waarin ze er bij hen op aandringen de kwestie aan te pakken – lijkt het Martone dat 'ze pas actie ondernamen toen het Taylor Swift-nieuws echt groot werd.'

'Zelfs als je het gevoel hebt dat niemand om je afbeeldingen geeft, doet AI dat wel.'

Toch zijn de meeste slachtoffers van pornografie zonder wederzijdse toestemming geen grote bekendheid. De meesten zijn vrouwen en velen hebben een gemarginaliseerde identiteit, of dat nu hun ras, etniciteit en/of seksuele geaardheid is. SVPA heeft bijvoorbeeld gewerkt met een vrouw die als studente aan het trainen was in de sportschool toen ze werd aangereden door een man, die ze afsloeg. Een paar weken later trok een ander lid van de sportschool de vrouw apart om haar te laten weten dat de man die ze had afgewezen deepfake-pornografie van haar had gemaakt - en het aan andere leden van de sportschool had laten zien en op Instagram had gepost, waar ze het kon laten verwijderen. Martone zegt dat er onlangs deepfake-porno van hen is gemaakt, gezien hun werk aan deze kwestie.

Zonder wetgeving is het moeilijk om iets te ondernemen. Omdat de problematische inhoud als nep wordt erkend, wordt het niet als laster beschouwd, voegt Martone toe.

Hoe dan ook moeten we als samenleving er allemaal aan werken om te voorkomen dat er niet-consensuele inhoud wordt gemaakt en gedeeld, zeggen experts. Het idee dat het probleem groeit en dat het onmogelijk is om de geest terug in de fles te stoppen, mag geen gevoel van onvermijdelijkheid of gevoelloosheid koesteren.

Voor degenen die denken dat ze nooit in dit soort situaties terecht zullen komen, benadrukt Mitchell ook dat de technologie ervoor heeft gezorgd dat het zo gewoon is geworden dat iedereen erdoor getroffen kan worden.

Zoals Mitchell het uitlegt: ‘Mensen moeten zich ervan bewust zijn dat alle inhoud die ze online zetten mogelijk door particulieren of door bedrijven kan worden opgepikt om te worden gebruikt als onderdeel van AI-training. Het is dus misschien niet zo dat een familiefoto op Facebook iets is waar het grote publiek om geeft. Maar dat is niet de vraag. De vraag is: zal deze inhoud worden opgepikt door een groot technologiebedrijf op een manier die de objectivering van vrouwen kan helpen bevorderen?'

Uiteindelijk is het de technologie waar u zich bewust van moet zijn en waar u op uw hoede voor moet zijn. 'Zelfs als je het gevoel hebt dat niemand om je afbeeldingen geeft, kan AI dat wel schelen', zegt Mitchell. ‘AI-systemen kunnen ze nog steeds opvegen, ze kunnen nog steeds worden gebruikt om je verkeerd voor te stellen, en ze kunnen nog steeds worden gebruikt in elke vorm van wraaksituatie, en elke situatie waarin je iemand hebt die zo’n kwaadwillende actor zal zijn, kan je persoonlijk schade toebrengen.’

Hoe u niet-consensuele deepfakes kunt voorkomen en bestrijden

    Ontwikkel jezelf zodat je begrijpt wat er gebeurt. Weet dat het delen van persoonlijke informatie online mogelijk ook het delen van die informatie met het publiek inhoudt. 'Er moet een soort herinterpretatie komen van wat het is om inhoud online te delen: wanneer het gepast is om dingen te delen en wanneer niet. Het gaat ook over ouders die met hun kinderen praten over waarom het niet oké is om deepfake-porno van hun klasgenoten te maken', zegt Mitchell. Steun de journalistiek. 'Het is belangrijk om te weten welke rol de pers speelt, want soms is dat het enige tegenwicht voor echt problematisch gedrag van bedrijven of problematisch gedrag dat bedrijven mogelijk maken', legt Mitchell uit. 'Want als er slechte pers is die hun aandelen beïnvloedt, beïnvloedt dat wat de aandeelhouders denken, dat beïnvloedt wat de durfkapitalisten denken en hoeveel geld ze kunnen krijgen. Dit is hoe wij verandering bewerkstelligen. We laten journalisten erover schrijven. Bedrijven besteden daar aandacht aan, het weerklinkt door de hele markt.' Wees een goede digitale toeschouwer. Als iemand pornografie zonder wederzijds goedvinden met je maakt of deelt – deepfake of niet – kijk er dan niet naar, ga er niet op in, deel het of zoek er zelfs niet naar online, omdat het de algoritmen zal trainen om meer ervan aan meer mensen te bieden, zegt Martone. Maak een digitale inventaris van uw imago en informatie online. Zorg ervoor dat u proactief bent bij het controleren van de sites waarop u afbeeldingen van uw gezicht of lichaam plaatst. Gebruik de veiligheidsfuncties die op elke site of app beschikbaar zijn, inclusief alles wat zo eenvoudig is als ervoor zorgen dat alleen mensen die u kent uw foto's op Facebook kunnen zien. Als er toch iets gebeurt, zegt Martone, meld dit dan onmiddellijk bij de locaties. SVPA heeft een gids voor het verwijderen van inhoud die u niet wilt van sites, evenals een handleiding daarvoor het voorkomen van digitaal seksueel geweld voor makers van inhoud, maar deze principes kunnen door iedereen worden gebruikt. Mogelijk vindt u het ook nuttig om de uitgebreide bronnen op de website van het Cyber ​​Civil Rights Initiative te bekijken, inclusief hun Veelgestelde vragen , Staatswetten , En onderzoeksresultaten . Zoek naar tools en apps die afbeeldingen wijzigen of beveiligen. Het is nog steeds een nieuw gebied, maar ontwikkelaars werken aan technologie om afbeeldingen die online worden geplaatst te beschermen en te ‘vergiftigen’, inclusief tools zoals Nachtschade . Mitchell zegt dat naarmate de behoefte groeit, er meer en betere instrumenten zullen worden ontwikkeld om deze problemen te bestrijden.