V poročilu so tudi vsebine o samopoškodovanju in samomoru. Za pomoč in podporo v primeru stiske so na voljo strokovnjaki_inje na številkah
116 123: Zaupni telefon Samarijan in Sopotnik (24h/dan), 116 111: TOM telefon otrok in mladostnikov (12-20h) in 01 520 99 00: Klic v duševni stiski (19-7h).
Nova raziskava Amnesty International je pokazala, da vsebine, ki jih TikTok ponuja v Franciji v okviru izbora ‘Zate’ (For You) še vedno usmerjajo otroke in mlade, ki jih zanimajo teme duševnega zdravja, v začarani krog posnetkov, ki večajo depresijo, spodbujajo k samo-poškodovanju in samomoru.
Raziskava Zvlečeni v temno zajčjo luknjo izpostavlja, kako TikTok še naprej ohranja svojo sistemsko zasnovo, ki ogroža dobrobit otrok in mladih.
Naša raziskava pokaže, kako hitro lahko najstnike_ce, ki jih zanimajo vprašanja duševnega zdravja, TikTokov algoritem potegne v nevarne zajčje luknje. Zgolj po treh do štirih urah uporabe TikTokovih vsebin prek izbora ‘Zate’ so se na testnih profilih pojavili posnetki, ki so romantizirali samomor ali prikazovali mlade, ki so govorili o svojih namenih končati življenje, vključno s tem, kako bi to naredili.
Lisa Dittmer, raziskovalka Amnesty International o digitalnih pravicah otrok in mladih.
»Pričevanja mladih in prizadetih staršev iz Francije so razkrila, kako TikTok normalizira in stopnjuje samopoškodovanje in samomorilske misli do točke, da tudi ponuja vsebine s ‘samomorilskimi izzivi’.«
TikTokov nabor vsebin ‘Zate’ je personaliziran izbor kratkih posnetkov, ki ponujajo posamezniku vsebine glede na njegove pretekle oglede vsebin.
Raziskovalci Amnesty International so vzpostavili tri najstniške profile, dva dekliška, enega fantovskega, ter se registrirali kot trinajstletniki iz Francije. Njihov namen je bil preveriti, kaj poudarjajo algoritmi v okviru vsebin ‘Zate’. Po petih minutah ogledov ponujenih videov, ne da bi izrazili kakršnakoli dodatna zanimanja, so raziskovalci naleteli na posnetke o užaloščenosti in razočaranosti.
Ogledi teh posnetkov so hitro povečali število vsebin, povezanih z žalostjo in duševnim zdravjem. V roku 15 do 20 minut po začetku preizkusa so bili vsi trije profili polni skoraj izključno vsebin in posnetkov o duševnem zdravju, pri čemer jih je približno polovica ponujala depresivne vsebine. Dva profila sta v roku 45 minut začela ponujati posnetke, na katerih so bile izražene samomorilske misli.
Dodatno preizkušanje je potekalo skupaj z Inštitutom za algoritmično transparentnost (Algorithmic Transparency Institute) na podlagi avtomatiziranih preizkusnih profilov 13-letnikov_ic iz Francije. Rezultati so pokazali, da je TikTokov sistem priporočenih vsebin več kot podvojil delež žalostnih ali depresivnih vsebin, če so zgodovine ogledov vključevale različno število ogledov takih posnetkov.
Raziskava, opravljena v Franciji, je potekala v zakonodajnem okviru, ki ga Tiktoku nalaga Akt EU o digitalnih storitvah (Digital Services Act (DSA)). Ta od leta 2023 zahtevajo, da družabne platforme zaznavajo in ukrepajo zoper sistemske nevarnosti, ki ogrožajo pravice otrok.
Francoski zakonodajalci_ke trenutno razpravljajo o zakonskih luknjah znotraj pravil o družabnih omrežjih in sedanja raziskava dodaja k dosedanjim dokazom Amnesty International, da TikTok ni razrešil sistemskih tveganj, ki so del njegovega poslovnega modela, ki temelji na pridobivanju in ohranjanju pozornosti uporabnikov_ic.
Posledice za mlade
Navkljub ukrepom za zmanjšanje tveganj, ki jih je TikTok napovedal po letu 2024, je platforma še vedno vir vsebin, ki normalizirajo samo-poškodovanje, obup in samomorilske misli med ranljivimi uporabniki_cami.
Pričanja mladih, ki se spopadajo z depresijo, in prizadetih staršev razkrivajo obseg tveganj in škode, ki jih prinaša poslovni model TikToka za duševno in fizično zdravje mladih, ki jim že tako ni lahko.
»Nekateri posnetki so še vedno vžgani v moje možgane,« je dejala Maëlle.18-letnica je opisala, kako jo je leta 2021 prek algoritmov ‘Zate’ posrkalo med depresivne vsebine in posnetke, ki so prikazovali samopoškodovanje. Naslednja tri leta se je njeno duševno zdravje v boju proti samopoškodovanju slabšalo, saj jo je doseglo vse več škodljivih vsebin in posnetkov.
Ko vidiš ljudi, ki se režejo ali ki povedo, katera zdravila vzeti, da se vse konča, to vpliva nate in te vzpodbudi k samopoškodovanju.
Maëlle, 18 let
Poročilo je osredotočeno na to, kako se poudarja in širi škodljive vsebine, a zbrana pričevanja kažejo tudi, da TikTok ni zagotovil primernega urejanja vsebin. Izkušnje vključenih v raziskavo kažejo, da TikTok, navkljub vztrajnim poskusom mladih in njihovih družin, vsebin, ki vzpodbujajo k samopoškodovanju ali samomoru, ni odstranil s platforme.
Tudi raziskovalci Amnesty so poleti 2025 našli dva posnetka “lip balm izziva” med ponujenimi vsebinami na profilu, ki so ga sami upravljali. Gre za vsebine, ki naj bi se začele kot izziv uganiti, kateri balzam za ustnice uporablja druga oseba. A nato se je to preoblikovalo v odstranjevanje balzama za ustnice vsakič, ko je oseba žalostna, do točke, ko se samopoškodujejo ali poskusijo storiti samomor, ko balzama za ustnice zmanjka.
»Za te platforme so naši otroci postali produkti, ne pa ljudje. Naše otroke uporabljajo kot produkte prek algoritmov in filtrov, ki ustvarjajo balončke, izkoriščajo njihova čustva in jih zapeljejo. Algoritem zazna zanimanja osebe na način, ki ni nekaj običajnega. Gre za vdor v zasebno življenje otrok. A tudi otroci imajo pravice,« je dejala Stéphanie Mistre, mama 15-letne Marie Le Tiec, ki jo je posrkalo v TikTokovo spiralo depresivnih vsebin in je končala svoje življenje leta 2021.
Nujni in zavezujoči ukrepi, potrebni, da bi bil TikTok varen
Sedanja raziskava kaže, da TikTok ni uspešno razrešil sistemskih tveganj, ki jih povzroča njegov ustroj, ki teži k ustvarjanju odvisnosti pri mladih uporabnikih. Podjetje ni izpolnilo svojih dolžnosti, da spoštuje človekove pravice, kot to zahtevajo Smernice ZN za spoštovanje človekovih pravic v gospodarstvu, in ne izpolnjuje svojih dolžnosti iz Akta o digitalnih storitvah EU.
Novi dokazi o očitnih kršitvah Akta o digitalnih storitvah morajo biti vključeni v nadaljujočo se preiskavo, ki jo Komisija EU vodi glede delovanja TikToka. Zavezujoči in učinkoviti ukrepi morajo biti sprejeti, da se TikTok prisili, da končno zagotovi, da bo produkt, ki ga ponujajo, varen za mlade v EU in po svetu.
Katia Roux, Amnesty International Francije
Nemar, ki ga TikTok kaže do sistemsko škodljivih posledic njegovega poslovnega modela, ki temelji na ohranjanju pozornosti uporabnikov_ic, postavlja pod vprašaj TikTokovo spoštovanje določil Akta o digitalnih storitvah EU in še dodatno izpostavlja potrebo po odločnejši ureditvi in učinkovitejših mehanizmih nadzora in odgovornosti, da se zaščiti otroke in ranljive uporabnike_ce.
Amnesty International je svoje glavne zaključke in ugotovitve delila s TikTokom. Podjetje se ni odzvalo.
Ozadje
Leta 2023 je Amnesty International objavila dve dopolnjujoči se poročili Driven into the Darkness: How TikTok Encourages Self‑harm and Suicidal Ideation in “I feel exposed”: Caught in TikTok’s surveillance web, v katerih je opozorila na zlorabe in kršitve človekovih pravic, ki jih doživljajo otroci in mladi, ki uporabljajo TikTok.
Več nasvetov je na voljo v priročniku, ki ga je Amnesty International pripravila o tem, kako krepiti lastno odpornost in ostati varen (Staying Resilient While Trying to Save the World (Volume 2): A Well-being Workbook for Youth Activists.


