Negli ultimi mesi, Tik Tok ha lavorato a nuovi modi per limitare la visione di determinati tipi di contenuti ai minori.
Una mossa che fa parte di una spinta più ampia verso una maggiore sicurezza per gli utenti più giovani.
L’app, in un post sul
blog, ha svelato il lancio di una nuova versione del suo “modello di
analisi borderline”, che l’azienda utilizza per identificare
automaticamente “contenuti sessualmente espliciti, allusivi o
borderline” appunto.
L’obiettivo è identificare i video che non violano apertamente le linee
guida del social network ma che possono risultare inadatti ad un pubblico
giovane. Il modello di rilevamento dei contenuti di nuova generazione, secondo
Tik Tok, avrebbe già “impedito agli account degli adolescenti di
visualizzare più di un milione di video sessualmente suggestivi negli ultimi 30
giorni”. TikTok ha inoltre annunciato di aver siglato una partnership con
StopNCII.org, uno strumento online gratuito pensato per sostenere le vittime di
abusi di immagini intime condivise senza il loro consenso. Fa parte dello
stesso progetto anche Meta, l’azienda madre di Facebook. “Questa
collaborazione non solo fornirà un migliore supporto alle vittime, ma aiuterà
anche a impedire automaticamente che i contenuti identificati attraverso la
nostra partnership vengano pubblicati sulla piattaforma” prosegue il team
dell’app. “Il nostro obiettivo è sempre stato quello di garantire che la
community, in particolare gli adolescenti, vivano un’esperienza sicura,
positiva e gioiosa quando usano TikTok”. A inizio dicembre, lo Stato
dell’Indiana, negli Usa, ha citato in giudizio lo sviluppatore di Tik Tok, la
cinese Byte Dance, accusandola di mostrare agli adolescenti contenuti per
adulti. Il procuratore generale, il repubblicano Todd Rokita, ha basato la sua
tesi su studi e rapporti che collegherebbero l’uso della piattaforma a disturbi
alimentari e depressivi tra i più giovani. (ANSA)