Vai al contenuto

TikTok è al lavoro per eliminare le “sfide estreme” e le bufale virali prima che si diffondano

Pubblicato: 03/12/2021 17:00

La famosissima applicazione per smartphone TikTok ha annunciato nuove misure di sicurezza e ha promosso una ricerca sul tema. Oramai da alcuni anni il tema dei comportamenti ad alto rischio che troviamo online coinvolge molte piattaforme del web. In particolare, queste “sfide” vengono spesso emulate da bambini e ragazzi. Su TikTok i contenuti replicati a catena e le sfide costituiscono una gran parte del successo dell’app, motivo per il quale i gestori non possono prendere alla leggera i rischi connessi a queste attività.

TikTok e le sfide estreme: i risultati della ricerca

L’applicazione stessa, come riportato sul loro sito, ha condotto una ricerca per comprendere meglio queste dinamiche. Alexandra Evans, responsabile europea per le politiche sulla sicurezza all’interno della piattaforma, ha introdotto in sintesi i risultati della ricerca sulla sicurezza interna a TikTok. Da questi dati si può notare come quasi la metà delle challenge online sia considerata sicura dagli adolescenti. Al 32% di esse invece i ragazzi associano un certo rischio, ma le reputano comunque sicure. Il 14% risulta rischioso e il 3% addirittura molto pericoloso.

Bisogna sapere che per sfide pericolose online si intende quelle che comportano un rischio significativo di danni fisici, mentali o emotivi. C’è inoltre una “sottocategoria” di sfide, legate a suicidio e autolesionismo, definite “sfide bufala”. In realtà, queste “sfide bufala”, come detto nello studio, sono storie costruite per diffondere e perpetuare la paura e l’ansia, senza alcun elemento autentico di partecipazione o di sfida.

Cosa fa TikTok per combattere le “sfide bufala”

La piattaforma, di proprietà di ByteDance, ha quindi deciso di introdurre una stretta nella policy sulle challenge. TikTok ha infatti sottolineato che la ricerca dimostra che, nonostante alcuni contenuti siano condivisi con le migliori intenzioni, le bufale sui contenuti autolesionistici possono avere un forte impatto sulla vita degli adolescenti. Quindi l’applicazione ha deciso che verranno eliminati i contenuti allarmistici, per la protezione della community. Ciò verrà fatto perché trattare i contenuti ingannevoli e le bufale come reali può essere dannoso per chi usufruisce della piattaforma. Non verranno ovviamente eliminate le conversazioni che hanno come obiettivo l’eliminazione del panico e la promozione di informazioni accurate. L’obiettivo finale del progetto e della ricerca lanciati dall’applicazione è quello di comprendere al meglio da cosa vengono attratti i giovani. Questo servirà per portare altre risposte concrete contro le sfide potenzialmente dannose e i contenuti ingannevoli.