🌐 Module 6

Module 6: Online en door AI gefaciliteerd gendergerelateerd geweld (GBV)

Onderzoeken hoe gendergerelateerd geweld zich manifesteert in digitale ruimtes en hoe AI zowel schade kan versterken als helpen voorkomen.

🏛️ Verantwoordelijke partner: Universiteit van Oldenburg

📖

Hoofdstukoverzicht

Welkom bij deze module over online en door AI gefaciliteerd gendergerelateerd geweld (GBV). Deze module onderzoekt de manieren waarop gendergerelateerd geweld zich voordoet in online omgevingen en bekijkt de dubbele rol van kunstmatige intelligentie (AI) bij zowel het mogelijk maken als het bestrijden van deze vormen van schade.

🎯

Leerdoelen van het hoofdstuk

Aan het einde van deze module kun je:

  • De belangrijkste vormen van online en door AI gefaciliteerd GBV identificeren.
  • Het online–offline continuüm begrijpen en zien hoe misbruik kan escaleren.
  • De dubbele rol van AI analyseren bij het in stand houden én het tegengaan van GBV.
  • Strategieën voor digitale veiligheid en ondersteuning toepassen in jeugdwerk.
Unit 1

💻 Vormen van online gendergerelateerd geweld (GBV)

In de digitale wereld van vandaag is het internet centraal in hoe jongeren contact maken, communiceren en ontdekken wie ze zijn. Maar naast deze kansen brengen digitale ruimtes ook serieuze risico’s met zich mee— vooral voor meisjes, jonge vrouwen, LGBTIQA+-jongeren en andere gemarginaliseerde groepen. Technologie is niet neutraal. Ze kan gebruikt worden om te ondersteunen, maar ook om te controleren, te beschamen of te schaden.

Online gendergerelateerd geweld (GBV) verwijst naar schadelijke handelingen die via digitale technologieën worden uitgevoerd en die mensen treffen op basis van hun gender, genderidentiteit of seksuele oriëntatie. Volgens het Europees Instituut voor Gendergelijkheid (EIGE) heeft meer dan de helft van de jonge vrouwen (52%) in de EU een vorm van online geweld ervaren—zoals bedreigingen, intimidatie, en het niet-consensueel delen van intieme beelden (EIGE, 2022). LGBTIQA+-jongeren, raciale minderheden en jongeren met een beperking worden eveneens onevenredig vaak geviseerd.

Sommige vormen van online GBV zijn luid en publiek, zoals haatreacties of gemanipuleerde beelden. Andere zijn verborgen of vermomd als “normaal”, zoals controlerende berichten in een relatie of een onbekende die online vertrouwen opbouwt met misbruik als doel. Maar alle vormen van online GBV kunnen diepe emotionele, psychologische en zelfs fysieke gevolgen hebben. Ze kunnen offline escaleren—en dat gebeurt ook vaak.

In deze sectie introduceren we zeven kernvormen van online GBV die jeugdwerkers en educators moeten kunnen herkennen. Elke vorm wordt uitgelegd met eenvoudige definities en concrete voorbeelden van platformen die jongeren echt gebruiken— zoals WhatsApp, TikTok, Discord of Instagram. De signalen kennen is de eerste stap om schade te voorkomen en steun te bieden.

🧾 Zeven kernvormen van online GBV

1. Cyberstalking

Digitale tools gebruiken om iemands activiteit of locatie zonder toestemming te volgen. Dit kan gaan om het tracken via GPS-apps zoals Snap Map, obsessief iemands online status controleren, of gedeelde wachtwoorden gebruiken om berichten te lezen.

Voorbeeld: De ex van een tiener blijft haar locatie volgen via Snap Map, zelfs nadat ze de relatie beëindigt en hem blokkeert op Instagram.

2. Cyberintimidatie (cyber-harassment)

Herhaalde, ongewenste berichten die agressief, bedreigend, seksueel of vernederend zijn. Dit gebeurt vaak via DM’s, groepschats of anonieme accounts en kan snel escaleren.

Voorbeeld: Een leerling krijgt dagelijks spraakberichten van een klasgenoot die hen uitscheldt en dreigt persoonlijke geheimen te onthullen.

3. Cyberpesten (cyber-bullying)

Een patroon van doelgericht online wreed gedrag tegen een minderjarige, meestal door leeftijdsgenoten. Dit kan bestaan uit memes, impersonatie, publieke beschaming of uitsluiting uit digitale ruimtes (bv. WhatsApp-groepen, private stories).

Voorbeeld: Een groep verspreidt een gefotoshopte meme over het lichaam van een klasgenoot en tagt haar in TikTok-reacties.

4. Online gendergerelateerde haatspraak

Beledigende of bedreigende taal gericht op iemand vanwege gender, seksuele oriëntatie of identiteit. Dit wordt soms “genormaliseerd” via ironie, memes of grappen, maar is zwaar schadelijk.

Voorbeeld: Een non-binaire jongere wordt herhaaldelijk misgendert in een Discord-server en krijgt te horen dat ze “zichzelf van kant moeten maken” nadat die pronouns deelt.

5. Niet-consensueel misbruik van intieme beelden (soms “wraakporno” genoemd)

Het delen of dreigen te delen van intieme foto’s of video’s zonder toestemming. Dit omvat zowel echte beelden als AI-gemanipuleerde content zoals deepfakes.

Voorbeeld: Iemand lekt een naaktfoto die in vertrouwen werd gestuurd, of maakt een deepfake-video en verspreidt die op anonieme fora.

6. Online grooming

Wanneer iemand bewust over tijd vertrouwen opbouwt met een minderjarige via online contact, meestal om hen seksueel te manipuleren of uit te buiten. Groomers doen zich vaak voor als leeftijdsgenoten of geven validatie, cadeautjes of complimenten.

Voorbeeld: Een 14-jarig meisje dat online games speelt, wordt uitgenodigd in privéchats door iemand die haar complimenteert en later om foto’s en geheimen vraagt.

Let op: Grooming start vaak niet met dreigementen—het begint met vriendelijkheid. Jongeren beseffen soms niet dat ze gemanipuleerd worden.

7. Doxxing

Het publiek maken van iemands persoonlijke informatie (naam, adres, telefoonnummer, school) om te intimideren of anderen aan te zetten die persoon lastig te vallen. Doxxing volgt vaak op online discussies, activisme of coming-out verhalen.

Voorbeeld: Nadat een jongere op TikTok post over LGBTIQA+-rechten, lekt een troll-account hun thuisadres in de reacties.

Waarom dit belangrijk is

Elke vorm van online GBV kan er anders uitzien, maar ze kunnen allemaal het mentale welzijn, zelfvertrouwen, veiligheid en vrijheid van jongeren beïnvloeden. Jeugdwerkers, educators en peers spelen een cruciale rol in het herkennen van red flags, het creëren van veiligere digitale omgevingen en het helpen benoemen van wat niet oké is. Figuur 1 vat enkele vormen van online GBV samen.

Diagram met vormen van online digitaal geweld
Figuur 1. Vormen van online digitaal geweld
📊 Tabel 1. Vormen van online gendergerelateerd geweld
Vorm Definitie Illustratief bewijs Jeugdwerkpraktijk Voorbeeldscenario
Cyberstalking & digitale surveillance Aanhoudende, ongewenste monitoring via apps, GPS of accounts om iemands bewegingen of online activiteit te volgen. Rogers et al. (2022) identificeren veelvoorkomende tactieken zoals spyware, gedeelde cloud-wachtwoorden en misbruik van “Zoek mijn telefoon”. Vraag: zijn jongeren zich bewust van verborgen apps of gedeelde inloggegevens? Stimuleer tech-check-ups en digitale grenzen. Een tiener meldt dat haar ex nog steeds weet waar ze is na de breuk, ondanks dat ze hem heeft geblokkeerd.
Cyberintimidatie Herhaald versturen van bedreigingen, beledigingen of vernederende content via digitale platformen. Henry & Powell (2018) tonen dat online misbruik vaak klassieke IPV-patronen weerspiegelt, vooral na relatiebreuken. Help jongeren bewijs te bewaren, te rapporteren op platformen en om te gaan met de emotionele impact. Een leerling ontvangt dagelijks beledigende spraakberichten van een klasgenoot in een groepschat.
Cyberpesten Online intimidatie of vernedering van minderjarigen, vaak in school- of peercontexten. Stonard et al. (2014) benadrukken hoe technologie pesten verlengt van schooluren naar privésferen. Werk aan groepsnormen in peerruimtes; gebruik rollenspellen om empathie en interventievaardigheden te versterken. Een groep meisjes maakt memes over het lichaam van een andere leerling en deelt die op Snapchat.
Online gendergerelateerde haatspraak Agressieve, denigrerende retoriek gericht op iemand vanwege gender of identiteit. Powell et al. (2022) beschrijven hoe haatspraak vrouwen en LGBTIQA+-personen viseert via gelaagde aanvallen (bv. seksisme + homofobie). Bereid jongeren voor om haat te herkennen en erop te reageren, niet alleen te negeren of “doorscrollen”. Een non-binaire tiener wordt herhaaldelijk misgendert en uitgescholden op een gaming Discord-server.
Niet-consensueel misbruik van intieme beelden (“wraakporno”) Het delen van privébeelden of video’s zonder toestemming, vaak door ex-partners of peers. Lippman & Campbell (2014) tonen dat tieners druk ervaren om nudes te sturen, die vervolgens vaak zonder toestemming worden doorgestuurd. Leer jongeren over juridische rechten, consent en de emotionele gevolgen van beeldsharing. Een jongen dreigt de foto van zijn ex te posten tenzij ze weer met hem praat.
Online grooming Een minderjarige manipuleren naar vertrouwen of afhankelijkheid met seksuele doelen—online of offline. Wolak et al. (2008) vonden dat grooming meestal start met complimenten en geleidelijk overgaat in manipulatie. Leg uit hoe daders vertrouwen opbouwen, niet alleen dreigen; versterk mediawijsheid. Een 15-jarige wordt uitgenodigd in een privéchat door een onbekende die gaming-beloningen belooft.
Tabel 1. Vormen van online gendergerelateerd geweld
Unit 2

🤖 De rol van artificiële intelligentie bij gendergerelateerd geweld

Artificiële intelligentie (AI) verandert hoe we communiceren, met elkaar omgaan en informatie vinden—vooral in digitale omgevingen waar jongeren veel tijd doorbrengen. Maar naast de voordelen verandert AI ook hoe schade kan ontstaan, waaronder gendergerelateerd geweld (GBV).

In deze unit verkennen we hoe AI-technologieën zowel kunnen worden ingezet om misbruik te faciliteren, als om preventie en respons te ondersteunen. De unit biedt praktische inzichten voor jeugdwerkers en educators die de tools, risico’s en kansen van AI in hun praktijk willen begrijpen.

De bespreking belicht ook de ethische uitdagingen van het vertrouwen op geautomatiseerde systemen in gevoelige contexten, en staat stil bij de beperkingen van huidige datasets en ontwerpkeuzes—zeker wanneer jongeren of gemarginaliseerde gemeenschappen niet zijn betrokken.

Belangrijk: AI-gefasiliteerd geweld is niet iets volledig nieuws. Het is eerder een voortzetting van gendergerelateerd geweld via nieuwe digitale kanalen, dan een aparte of geïsoleerde vorm. Als onderdeel van het online–offline continuüm van GBV weerspiegelen veel huidige schadelijke praktijken—zoals surveillance, dwang of beeldmisbruik—offline patronen van macht en controle. Technologie heeft dit gedrag niet gecreëerd, maar wel versterkt, geautomatiseerd en opgeschaald, vaak op manieren die moeilijker te detecteren of aan te pakken zijn.

⚠️ AI als facilitator van GBV

Artificiële intelligentie kan een krachtig hulpmiddel zijn—maar, zoals bij veel technologie, kan het ook misbruikt worden. In de context van GBV heeft AI nieuwe manieren mogelijk gemaakt voor daders om anderen lastig te vallen, te vernederen of te controleren, vooral in digitale ruimtes waar jongeren het meest actief zijn.

Een van de meest verontrustende ontwikkelingen is het gebruik van deepfakes—AI-gegenereerde beelden of video’s waarin iemands gezicht zonder toestemming in pornografische content wordt geplaatst. Deze deepfakes worden vaak gedeeld via sociale media of versleutelde berichtenapps. Zelfs wanneer ze duidelijk vervalst zijn, geven slachtoffers—vaak meisjes, jonge vrouwen en LGBTIQA+ jongeren—aan dat ze zich vernederd, bang en sociaal geïsoleerd voelen (Umbach et al., 2024).

Een ander veelvoorkomend misbruik is het maken van intimidatiebots: geautomatiseerde accounts die op grote schaal gewelddadige, denigrerende of bedreigende berichten versturen. Zulke bots richten zich vaak op jonge activisten, influencers of mensen die publiek spreken over gender, seksualiteit of rechtvaardigheid. De enorme hoeveelheid berichten kan ervoor zorgen dat het misbruik eindeloos en onontkoombaar voelt (Powell et al., 2022).

AI kan ook schade versterken zonder dat er per se een directe kwaadaardige intentie is. Platformalgoritmen die content met veel interactie naar voren schuiven, versterken vaak posts die woede of verontwaardiging oproepen. Daardoor bereiken misogynistische of transfobische berichten meer mensen—niet omdat platforms dat willen, maar omdat hun AI-systemen zijn ontworpen om aandacht te maximaliseren, niet veiligheid (Henry & Powell, 2018).

Tot slot kunnen AI-gestuurde technologieën in smart homes, wearables of mentale-gezondheidsapps worden omgevormd tot surveillancetools. Een dader kan zulke systemen gebruiken om iemands locatie te volgen, privéberichten te bekijken of emotionele toestanden af te leiden zonder toestemming. Slachtoffers weten soms niet eens dat ze worden gevolgd (Powell et al., 2022).

Deze risico’s onderstrepen een kernboodschap: AI veroorzaakt geen misbruik, maar kan wel worden bewapend door mensen met schadelijke intenties. Voor jeugdwerkers, sociaal werkers en educators is het essentieel om te begrijpen hoe deze technologieën werken—en hoe ze samenhangen met bestaande patronen van offline geweld—om jongeren te beschermen en te versterken, zoals weergegeven in Tabel 2.

📊 Tabel 2. AI als facilitator van GBV
Misbruikmethode Beschrijving Voorbeeld uit de praktijk Referentie
Deepfakes AI-gegenereerde beelden of video’s die iemands gezicht in seksuele content plaatsen Een tiener ontdekt een pornografische video die circuleert waarin haar gezicht met deepfake-technologie is gemonteerd Umbach et al. (2024)
Intimidatiebots Geautomatiseerde accounts die bedreigende of denigrerende content spammen, vaak gericht op activisten of gemarginaliseerde groepen Een jonge vrouwelijke klimaatactivist ontvangt na een publieke toespraak honderden AI-gegenereerde scheldwoorden op verschillende platforms Powell et al. (2022)
Algoritmische versterking van haat Platformalgoritmen geven prioriteit aan haatdragende of opruiende posts voor engagement, waardoor doelen aan massaal misbruik worden blootgesteld LGBTIQA+ influencers melden een piek in haat na posts over Pride door aanbevelingsalgoritmen Henry & Powell (2018)
Data-exploitatie AI-systemen lekken privégegevens via “slimme” apparaten of leiden gevoelige info af zonder toestemming Een slimme speaker in het huis van een tiener neemt privéruzies op en verstuurt logs naar een cloudserver zonder toestemming Powell et al. (2022)
Tabel 2: AI als facilitator van GBV
🛟 AI als hulpmiddel tegen GBV

Hoewel AI-technologieën kunnen worden misbruikt om schade te veroorzaken, hebben ze ook veel potentieel om preventie, vroege detectie en ondersteuning van overlevenden bij gendergerelateerd geweld (GBV) te versterken. Wanneer AI ethisch wordt ontwikkeld en toegepast, kan het de veiligheid verhogen en de toegang tot hulp verbeteren voor mensen die online misbruik ervaren.

Een van de meest effectieve toepassingen is het detecteren en verwijderen van schadelijke content. Tools met beeldherkenning, zoals systemen geïnspireerd op Microsoft’s PhotoDNA, helpen platforms al om bekend kindermisbruikmateriaal (CSAM) te herkennen en te blokkeren. Deze systemen vergelijken uploads met beveiligde databases van eerder gemelde misbruikbeelden. Hoewel ze niet kunnen voorkomen dat nieuwe beelden worden gemaakt, zijn ze een belangrijke waarborg tegen verspreiding (UNICEF, 2022).

AI wordt ook gebruikt voor chatbots en virtuele assistenten die overlevenden helpen om passende ondersteuning te vinden. Dit is vooral nuttig voor jongeren die het spannend vinden om met iemand face-to-face te praten. Chatbots kunnen gebruikers begeleiden met vragen over hun ervaring en hen koppelen aan mentale gezondheidszorg, juridische hulp of noodservices. Wanneer ze trauma-sensitief zijn ontworpen en meertalig beschikbaar zijn, kunnen ze een veilige eerste stap richting hulp vormen (Musharu et al., 2025).

Natural Language Processing (NLP)—AI die menselijke taal helpt begrijpen—wordt ingezet om haatspraak te detecteren en te blokkeren. Platforms zoals X (voorheen Twitter), Instagram en TikTok gebruiken steeds vaker NLP-modellen om posts te scannen op beledigende of bedreigende taal en daarop te handelen. Deze tools zijn niet perfect, maar ze verminderen de zichtbare schade en kunnen gebruikers beschermen tegen de psychologische impact van gerichte intimidatie (Powell et al., 2022).

Er lopen ook vroege proeven met AI voor preventie en early-warning systemen. Sommige apps analyseren gebruikersgedrag—zoals toon van berichten of contactfrequentie—om patronen te herkennen die op risico kunnen wijzen. In bepaalde contexten van huiselijk geweld wordt AI onderzocht om hoogrisicosituaties te signaleren voordat fysiek geweld plaatsvindt. Zulke voorspellende modellen moeten uiterst zorgvuldig worden gebruikt om foutpositieven en privacyrisico’s te vermijden, maar ze tonen potentieel voor vroegtijdige interventie (Henry & Powell, 2018).

Wat deze tools echt bruikbaar maakt, is niet alleen de technologie zelf, maar ook hoe ze worden geïntroduceerd, uitgelegd en bestuurd. Tools die samen met jongeren, overlevenden en maatschappelijke organisaties worden ontworpen, sluiten vaker aan bij echte behoeften en worden sneller vertrouwd (zie Tabel 3).

📊 Tabel 3. AI als hulpmiddel tegen GBV
AI-toepassing Beschrijving Voorbeeld Referentie
Beelddetectie AI-tools herkennen bekend of vermoedelijk misbruikmateriaal (bijv. niet-consensuele naaktbeelden) en markeren/verwijderen dit van platforms Meta gebruikt PhotoDNA-achtige tools om uploads van bekend kindermisbruikmateriaal (CSAM) te blokkeren UNICEF (2022)
Triage-chatbots AI-gestuurde bots begeleiden overlevenden naar de juiste diensten, 24/7, met trauma-sensitieve flows Een jongere gebruikt een support-chatbot via WhatsApp om mentale ondersteuning in hun taal te vinden Musharu et al. (2025)
NLP voor haatdetectie NLP wordt gebruikt om misogynistische of transfobische posts automatisch te signaleren X gebruikt contentclassifiers die getraind zijn op haatspraakdatasets Powell et al. (2022)
Voorspelling / vroegsignalering In sommige proeven analyseert AI risicopatronen in abusief gedrag om waarschuwingen of preventie te activeren Prototype-apps beoordelen escalatiepatronen in DV-cases via sms-toon + frequentie Henry & Powell (2018)
Tabel 3: AI als hulpmiddel tegen GBV
⚖️ Ethische zorgen en datalacunes (voor jeugdwerkers)

Nu AI steeds vaker wordt ingezet in de aanpak van gendergerelateerd geweld (GBV), is het essentieel om niet alleen de mogelijkheden te begrijpen, maar ook de beperkingen en risico’s. AI-tools zijn niet neutraal. Ze worden gevormd door de data waarop ze getraind zijn, de doelen van ontwikkelaars en de sociale context waarin ze worden gebruikt. Zonder goed toezicht kunnen ze onbedoeld ongelijkheid versterken, overlevenden blootstellen aan nieuwe risico’s of tekortschieten in de bescherming die ze beloven.

Een belangrijke zorg is bias in AI-modellen. Veel systemen die haatspraak, misbruikberichten of schadelijke beelden detecteren, zijn getraind op data waarin bepaalde groepen of talen ondervertegenwoordigd zijn. Daardoor kan misbruik gericht op vrouwen van kleur, LGBTIQA+ personen of niet-westerse gebruikers onopgemerkt blijven. In sommige gevallen worden legitieme uitingen van boosheid of frustratie door overlevenden onterecht als “misbruik” gemarkeerd, terwijl echte bedreigingen online blijven (Powell et al., 2022).

Een ander risico is het gebrek aan transparantie in hoe AI-tools beslissingen nemen. Overlevenden weten mogelijk niet waarom een post is verwijderd of waarom een chatbot een bepaald antwoord gaf. Dit “black box”-probleem vermindert vertrouwen en beperkt accountability. Voor jongeren—die vaak minder vertrouwd zijn met digitale rechten—kan dit leiden tot verwarring of frustratie wanneer ze online hulp zoeken (Henry & Powell, 2018).

Misbruik van surveillance is eveneens een groeiend probleem. AI-tools die bedoeld zijn om gebruikers te beschermen—zoals locatie-trackers of emotieherkenning—kunnen door daders worden ingezet om slachtoffers te monitoren of te controleren. Als veiligheidsapps geen sterke privacybescherming hebben, kunnen ze juist onderdeel worden van coercive control. Dat is extra gevaarlijk in situaties van huiselijk geweld waar technologie al een rol speelt (UNESCO, 2023).

Het ontbreken van jongerenparticipatie bij het ontwerp is een andere cruciale lacune. Jongeren hebben vaak specifieke ervaringen met online misbruik, maar worden zelden betrokken bij het ontwikkelen van digitale veiligheidsoplossingen. Daardoor kunnen tools slecht aansluiten bij hun leefwereld, moeilijke taal gebruiken of context missen—zoals slang, culturele normen of platform-specifieke risico’s (Musharu et al., 2025).

Tot slot is er een gebrek aan longitudinale data over wat écht werkt. Veel AI-interventies zijn pilots of commerciële producten met beperkte transparantie. Zonder onafhankelijke evaluatie en publiek beschikbare data is het lastig te beoordelen of tools op lange termijn schade verminderen of het probleem vooral verplaatsen naar andere platforms of groepen.

Gebruik deze checklist om digitale tools te beoordelen die je mogelijk aanbeveelt of inzet met jongeren:
  • Respecteert de tool privacy? Worden data veilig opgeslagen, en kunnen jongeren de tool gebruiken zonder gevoelige info te delen?
  • Is de taal toegankelijk voor alle jongeren? Vermijdt de tool jargon en houdt hij rekening met verschillen in leeftijd, achtergrond en digitale geletterdheid?
  • Bestaat er risico op het versterken van stereotypen? Herkent het systeem diverse identiteiten en vermijdt het gender-, raciale of culturele bias?
  • Is het transparant over hoe het werkt? Kunnen gebruikers begrijpen hoe beslissingen worden genomen en wat er met hun data gebeurt?
  • Is het ontworpen met input van jongeren? Hebben jongeren de tool getest of mee vormgegeven zodat hij relevant en inclusief is?
📊 Tabel 4. Ethische uitdagingen van AI tegen GBV
Ethische uitdaging Beschrijving Implicatie
Gebrek aan transparantie Veel AI-tools functioneren als “black boxes”, en het is onduidelijk hoe beslissingen worden genomen Overlevenden kunnen geautomatiseerde tools minder vertrouwen of niet begrijpen hoe hun gegevens worden gebruikt
Bias en verkeerde classificatie AI kan maatschappelijke vooroordelen weerspiegelen en misbruik tegen gemarginaliseerde gebruikers niet detecteren NLP-systemen kunnen haat tegen niet-westerse genderidentiteiten missen
Surveillancerisico’s Tools die bedoeld zijn voor bescherming kunnen worden misbruikt voor stalking of misbruik Locatie-tracking of emotiedetectie kan tegen slachtoffers worden ingezet
Gebrek aan jongerenstem in het ontwerp Weinig AI-tools worden samen met jongeren ontworpen, wat kan leiden tot een mismatch in bruikbaarheid of veiligheid Chatbots kunnen lokale slang of emotionele nuances die voor jongeren belangrijk zijn over het hoofd zien
Tabel 4: Ethische uitdagingen van AI tegen GBV
Kennischeck: Korte quiz
1. Welke van de volgende opties is een schadelijke toepassing van AI?
2. Wat is een belangrijk risico van het gebruik van AI in GBV-preventie?
3. Waarom is betrokkenheid van jongeren belangrijk bij het ontwerp van AI-tools?
Unit 3

🛡️ Veilige online praktijken

Deze unit introduceert praktische strategieën om veiligere online ervaringen te bevorderen in het licht van gendergerelateerd geweld (GBV). Ze verkent hoe jeugdwerkers kunnen helpen het risico op schade te verkleinen door digitale veiligheidsgewoonten te versterken, effectief te reageren op incidenten van online misbruik en respectvolle, empowerende communicatie aan te moedigen. De unit kijkt ook naar hoe positieve peer-normen en omstanderacties online culturen kunnen verschuiven richting meer veiligheid en inclusie. Tot slot biedt ze richtlijnen voor het gebruik van platformspecifieke tools om misbruik te melden, privacy te beschermen en het mentaal welzijn van jongeren in digitale ruimtes te ondersteunen.

🧱 3.1 Kernstrategieën voor digitale zelfbescherming
Illustratie van strategieën voor digitale zelfbescherming
Figuur 2: Digitale zelfbescherming

In een steeds digitalere wereld is het beschermen van persoonlijke informatie en het bewaken van privacy van groot belang. Deze sectie schetst essentiële strategieën waarmee individuen hun digitale zelfbescherming kunnen versterken. Door deze kernstrategieën toe te passen, kunnen gebruikers sterkere digitale grenzen creëren, consent toepassen in hun communicatie en zich bewust blijven van de risico’s die aan verschillende platforms verbonden zijn.

1. Versterk digitale grenzen

  • Gebruik sterke, unieke wachtwoorden: Zorg dat alle belangrijke accounts beveiligd zijn met complexe wachtwoorden die niet makkelijk te raden zijn. Overweeg een wachtwoordmanager om ze bij te houden.
  • Activeer tweefactorauthenticatie: Dit voegt een extra beveiligingslaag toe door naast je wachtwoord een tweede verificatiestap te vereisen, zoals een sms-code of een authenticatie-app.
  • Vermijd het delen van live locaties: Plaats geen realtime locaties of gevoelige persoonlijke gegevens in openbare ruimtes, omdat dit je kan blootstellen aan ongewenste aandacht of risico’s.
  • Doe regelmatig privacy-check-ups: Controleer regelmatig je privacy-instellingen op sociale media, met aandacht voor locatie-deling, tagrechten en volgerslijsten, zodat je informatie alleen toegankelijk is voor vertrouwde personen.

2. Oefen consent in digitale communicatie

  • Vraag toestemming vóór je deelt: Vraag altijd expliciet consent voordat je foto’s of video’s deelt waarop andere mensen te zien zijn. Dit respecteert hun privacy en autonomie.
  • Respecteer grenzen in berichten: Controleer vóór je gevoelige content doorstuurt in groepschats of DM’s eerst bij de oorspronkelijke afzender of die persoon het oké vindt dat het wordt gedeeld.
  • Model gezonde online relaties: Stimuleer positieve interacties door manipulatieve taal of druk te vermijden en zo een respectvolle digitale omgeving te bevorderen.

3. Wees je bewust van platformrisico’s

  • Ken de risico’s van verschillende apps: Verdiep je in welke applicaties zwakke moderatie hebben of anoniem misbruik mogelijk maken, omdat die aanzienlijke risico’s kunnen vormen.
  • Leer content beheren: Weet hoe je op grote platforms schadelijke content kunt blokkeren, dempen (mute) of rapporteren om je online ervaring te beschermen.
  • Gebruik veiligheidsfuncties: Maak gebruik van functies zoals trefwoordfilters, contentwaarschuwingen en volgerslimieten (bijv. Instagram “Close Friends”) om een veiligere online ruimte te creëren.

Door deze strategieën toe te passen, kunnen mensen hun digitale zelfbescherming aanzienlijk versterken en bijdragen aan een veiligere online omgeving voor zichzelf en anderen.

🎲 Interactieve koppelactiviteit: “Wat moet je doen?”

Lees elk scenario hieronder en kies de meest passende actie voor de jeugdwerker. Nadat je hebt gekozen, verschijnen het juiste antwoord en een korte uitleg. Dit is puur informatief—er worden geen scores opgeslagen.

S1. “Een tienermeisje zegt dat haar ex nog steeds weet waar ze is, zelfs nadat ze hem op sociale media heeft geblokkeerd.”
GBV-type: Cyberstalking
S2. “Een leerling laat je een reeks boze DM’s zien van een klasgenoot die hen uitscheldt en dreigt hun leven online ‘te verpesten’.”
GBV-type: Cyberintimidatie
S3. “Een jongen wordt in de klas uitgelachen omdat iemand een TikTok heeft gemaakt met een deepfake van hem in gênante situaties.”
GBV-type: Beeldmisbruik
S4. “Een 15-jarige gamer zegt dat iemand in haar Discord-server haar steeds complimenten geeft en nu om selfies begint te vragen.”
GBV-type: Grooming
S5. “Een non-binaire tiener meldt haatreacties zoals ‘ga jezelf van het leven beroven’ en transfobe scheldwoorden telkens wanneer die iets post op Instagram.”
GBV-type: Haatspraak
S6. “Een jongere zegt dat klasgenoten lachende emoji’s sturen in een groepschat nadat iemand een naaktfoto van haar heeft gelekt.”
GBV-type: Beeldmisbruik (niet-consensueel delen)
📚 Referenties
  1. DeRiggi, M., Henry, N., & Powell, A. (2023). Digital bystanders: What works to support victims of technology-facilitated GBV. Youth & Society. https://doi.org/10.1177/0044118X231163511
  2. Henry, N., & Powell, A. (2018). Technology-facilitated sexual violence: A literature review of empirical research. Trauma, Violence, & Abuse, 19(2), 195–208. https://doi.org/10.1177/1524838016650189
  3. Lippman, J. R., & Campbell, S. W. (2014). Damned if you do, damned if you don’t… if you’re a girl: Relational and normative contexts of adolescent sexting in the United States. Journal of Children and Media, 8(4), 371–386. https://doi.org/10.1080/17482798.2014.923009
  4. Musharu, T., Gomez, J. M., Rosales, M., & Navarro Soria, I. (2025, June). AI and open data for GBV prevention among youth: Ethical governance and policy frameworks in the EU. In Proceedings of the 14th BUIS-Tage Conference on Smart and Sustainable Infrastructures. Oldenburg, Germany.
  5. Powell, A., Henry, N., Flynn, A., & Sugiura, L. (2022). Online, always: A scoping review of technology-facilitated abuse and gender-based violence in the Global North. Computers in Human Behavior, 129, 107131. https://doi.org/10.1016/j.chb.2021.107131
  6. Rogers, M. M., Burke, J. G., & Earp, J. A. L. (2022). Technology-facilitated abuse in intimate relationships: A scoping review. Trauma, Violence, & Abuse, 24(4), 2210–2226. https://doi.org/10.1177/15248380221093133
  7. Stonard, K. E., Bowen, E., Lawrence, T. R., & Price, S. A. (2014). The relevance of technology to the nature, prevalence and impact of adolescent dating violence and abuse: A research synthesis. Aggression and Violent Behavior, 19(4), 390–417. https://doi.org/10.1016/j.avb.2014.06.005
  8. Umbach, R., Valdez, A., & Dobberstein, D. (2024). Non-consensual deepfake pornography: Evidence from ten countries. Proceedings of CHI ’24. https://doi.org/10.1145/3491102.3517575
  9. UNESCO. (2023). Exposing technology-facilitated gender-based violence in an era of generative AI. https://unesdoc.unesco.org/ark:/48223/pf0000386461
  10. UNICEF. (2022). Safer Chatbots: Implementation Guide. https://www.unicef.org/media/114681/file/Safer-Chatbots-Implementation-Guide-2022.pdf
  11. Wolak, J., Finkelhor, D., Mitchell, K. J., & Ybarra, M. L. (2008). Online “predators” and their victims: Myths, realities, and implications for prevention and treatment. American Psychologist, 63(2), 111–128. https://doi.org/10.1037/0003-066X.63.2.111
Please log in to view this module.

Scroll to Top