Plattforma viste verre filmar til ungdomar som alt var utsette for eteforstyrringar og sjølvskading.
Ingvild Eide Leirfall

Ifølgje ein ny rapport som omhandlar sosiale medium og unge si psykiske helse, kjem det fram at algoritmane til TikTok prioriterer videoar om sjølvskading og eteforstyrringar til allereie utsette ungdomar.

Forskarane frå Senter for nedkjemping av digitalt hat (Center for Countering Digital Hate) baserte i USA og Storbritannia, laga åtte TikTok-kontoar for fiktive ungdomar over 13 år i USA, Storbritannia, Canada og Australia.

Tilrådde skadeleg innhald for utsette ungdommar

Forskarane lika og stoppa opp ved filmar om sjølvskading og eteforstyrringar for å sjå korleis algoritmane til TikTok ville reagere.

Etter få minutt tilrådde TikTok filmar om å gå ned i vekt og sjølvskading, inkludert filmar som viste bilete av modellar og #thinspo, bilete av barberblad og prat om og planlegging av sjølvmord.

Endå verre vart det då forskarane laga kontoar med brukarnamn som viste at dei var utsette for å kunne få eteforstyrringar, til dømes namn som inneheldt «lose weight» (gå ned i vekt). Desse kontoane fekk presentert endå meir skadeleg innhald.

– Det er som å vere fast i ein hall med forvrengde speglar, der du konstant blir fortald at du er stygg, du er ikkje bra nok, kanskje du burde drepe deg sjølv, seier sjef i organisasjonen, Imran Ahmed til AP.

– Det pumpar bokstaveleg tala ut dei mest moglege skadelege meldingane til unge folk.

TikTok svarar

I eit svar til Good Morning America tilbakeviser TikTok funna i rapporten, og kommenterer at forskarane ikkje har brukt plattforma på same måte som typiske brukarar, og at resultata difor ikkje er representative. Dei meiner også at eit brukarnamn ikkje burde påverke kva innhald ein får opp.

Aldersgrensa på TikTok er 13 år og i reglane deira er det forbode med filmar som oppmuntrar til eteforstyrringar eller sjølvmord. Brukarar frå USA får også opp eit automatisk forslag om hjelp innan psykisk helse og informasjon til den nasjonale eteforstyrrings-organisasjonen National Eating Disorder Association, dersom dei søker på innhald om eteforstyrringar på TikTok.

Dei fortel også at dei jamleg rådfører seg med helseekspertar, fjernar filmar som bryt med reglane deira og gir informasjon om hjelperessursar for dei som treng det.

Ekstreme algoritmar

Det er ikkje berre TikTok som får kritikk for måten algoritmane verkar. Dei fleste sosiale medium har same modell, der algoritmane jobbar med å gi deg meir av innhaldet du tidlegare har likt eller brukt tid på.

Tanken er at det skal gjere at du får lyst å bruke plattforma lengre, og få meir av innhaldet du er interessert i og mindre av det du ikkje bryr deg om. Problemet er at det også er med på sende folk ned i det som ofte vert kalla rabbit hole med skadeleg innhald, som ofte er meir ekstremt enn det du søkte på i utgangspunktet.


– Det kan vere eg har ualminneleg dårleg viljestyrke, men når eg går inn på Instagram vert eg ofte på Instagram til det er noko anna overhengande eg må gjere.
ANNONSE