Is AI de nieuwe vorm van pesten? | Stop Pesten NU

Is AI de nieuwe vorm van pesten?

Nee, AI is niet de nieuwe vorm van pesten in de zin dat de technologie zelfstandig individuen gaat pesten. De bronnen en onze eerdere gesprekken richten zich voornamelijk op AI als een hulpmiddel om cyberpesten te bestrijdenHet is echter belangrijk om de relatie tussen AI en pesten op de volgende manieren te begrijpen:

  • Cyberpesten blijft het probleem: De bron stelt duidelijk dat cyberpesten, online of digitaal pesten, een substantieel probleem blijft voor kinderen en jongeren. AI wordt gezien als een mogelijke oplossing om dit bestaande probleem aan te pakken
  • AI als moderatie-instrument: Socialmediaplatforms vertrouwen steeds meer op kunstmatige intelligentie (AI) of algoritmische tools om cyberpesten te modereren, zowel reactief (na melding) als proactief (door content te screenen).
  • Zorgen over AI-implementatie: Hoewel AI potentieel biedt, zijn er zorgen geuit door jongeren over de implementatie ervan, met name met betrekking tot privacy (monitoring van DM's, gezichtsherkenning) en vrijheid van meningsuiting (foutieve detectie van pestgedrag) Deze zorgen gaan over de impact van AI op hun rechten, niet over AI zelf als een pester.
  • Cyberpesten en anonimiteit: De bron merkt op dat anonimiteit een belangrijk aspect van cyberpesten iswaarbij daders zich achter een gebruikersnaam kunnen verschuilen. Hoewel AI de detectie van anoniem pesten kan beïnvloeden, is het niet de anonimiteit zelf die AI tot de pester maakt.
  • Sociale dynamiek blijft centraal: De bron benadrukt dat cyberpesten vaak voortkomt uit relationele problemen en strijd om sociale status AI kan de manifestatie of detectie van deze dynamieken beïnvloeden, maar het is niet de oorzaak van het pestgedrag.
Deze bron bevat een wetenschappelijk artikel dat de effectiviteit van door kunstmatige intelligentie (AI) aangedreven interventies tegen cyberpesten onder jongeren onderzoekt. Het artikel analyseert de perspectieven van jongeren op dergelijke interventies en de implicaties ervan voor hun rechten op bescherming, privacy en vrijheid van meningsuiting, zoals vastgelegd in het VN-Kinderrechtenverdrag. Door middel van focusgroepen en interviews verkent de studie de meningen van kinderen over verschillende AI-gebaseerde benaderingen, waaronder proactieve contentmoderatie, ondersteuningscontacten, betrokkenheid van omstanders en schoolinterventies. De bevindingen benadrukken het belang van het betrekken van jongeren bij het ontwerp van AI-systemen die cyberpesten aanpakken en het balanceren van hun verschillende rechten.

Download het volledige onderzoek Effectiveness of Artificial Intelligence–Based Cyberbullying Interventions From Youth Perspective 2023

Samenvattend, AI is eerder een instrument dat wordt ingezet in de context van cyberpesten. Het kan helpen bij de bestrijding ervan, maar de implementatie roept belangrijke vragen op over privacy en vrijheid van meningsuiting vanuit het perspectief van jongeren. Cyberpesten blijft de vorm van schadelijk gedrag, en AI is een technologie die mogelijk kan helpen dit te verminderen, maar ook onbedoelde gevolgen kan hebben.

Wat is AI pesten?

AI-pesten is een nieuwe vorm van cyberpesten waarbij kunstmatige intelligentie wordt gebruikt om schadelijke content te maken. leerlingen kunnen met ai-tools nepafbeeldingen, video's en stemmen creëren die anderen belachelijk maken of schade toebrengen. deze content wordt vaak gedeeld op sociale media of in chatgroepen.

Hoe gebeurt pesten met AI?

  • Deepfake beelden: een leerling kan een bestaande foto bewerken met ai om het te laten lijken alsof iemand iets doet wat niet echt is gebeurd.
  • Nep-naaktfoto's: met ai-tools kunnen kleren digitaal worden verwijderd van foto's die van sociale media zijn gehaald.
  • Valse audio-opnames: ai kan stemmen namaken, waardoor het lijkt alsof iemand iets heeft gezegd wat hij nooit heeft gezegd.
  • Snelle verspreiding op sociale media: ai maakt het makkelijker om pesterijen op grote schaal te delen, waardoor slachtoffers weinig controle hebben over de situatie.

Waarom zijn online tools gevaarlijk?

  • Mentale impact: slachtoffers kunnen angstig of depressief worden door de verspreiding van nepbeelden.
  • Rputatieschade: een deepfake kan ervoor zorgen dat iemand online wordt bespot, wat invloed heeft op toekomstig werk of studie.
  • Juridische gevolgen: het verspreiden van deepfakes of nep-naaktfoto's kan strafbaar zijn en juridische consequenties hebben.
  • Gemakkelijk toegang tot schadelijke content: kinderen kunnen eenvoudiger in aanraking komen met ongepaste ai-gecreëerde beelden en video's.

Voorbeeld van pesten met AI

lisa, een 14-jarig meisje, ontdekte dat iemand op school een ai-tool had gebruikt om haar gezicht op een nep-naaktfoto te zetten. de foto werd gedeeld in een groepschat en ging daarna viraal. dit veroorzaakte veel stress en angst bij lisa. haar ouders en school werkten samen om de afbeelding van internet te laten verwijderen en de dader kreeg een disciplinaire maatregel.

De relatie tussen AI en pesten is als volgt

  • Cyberpesten blijft het probleem: online pesten is een groot probleem en ai wordt soms ingezet om het te bestrijden.
  • AI als moderatie-instrument: sociale media gebruiken ai om pesten te detecteren en te beperken.
  • Zorgen over AI-gebruik: jongeren maken zich zorgen over privacy, monitoring en mogelijke fouten bij het herkennen van pestgedrag.
  • Anonieme pesters: AI kan helpen bij het identificeren van anonieme pesters, maar anonimiteit blijft een groot probleem bij cyberpesten.
  • Cociale dynamiek speelt een rol: cyberpesten ontstaat vaak uit sociale druk en status. ai kan pesten versterken, maar is niet de oorzaak.

AI als oplossing en risico

Onderzoek toont aan dat ai kan helpen bij het bestrijden van cyberpesten, bijvoorbeeld door schadelijke content te herkennen en meldingssystemen te verbeteren. tegelijkertijd roept het gebruik van ai vragen op over privacy en vrijheid van meningsuiting. 

Jongeren geven aan dat zij betrokken willen worden bij het ontwikkelen van AI-systemen tegen cyberpesten, zodat hun rechten op bescherming, privacy en vrije meningsuiting worden gewaarborgd.

Wat kunnen we doen tegen ai pesten?

  • Meer voorlichting op scholen over ai en de gevaren van deepfakes.
  • Sociale media moet ai-gebaseerd pesten harder aanpakken door betere rapportage-opties te bieden.
  • Ouders kunnen ouderlijk toezicht instellen op apparaten en apps gebruiken die verdachte ai-content detecteren.
  • Wetgeving moet ai-pesten strafbaar stellen en platformen verplichten om snellere maatregelen te nemen.