TikTok inizierà ad automatizzare la rimozione di video per nudità (e altro) negli Stati Uniti. Negli Stati Uniti e in Canada, la società inizierà a utilizzare sistemi di revisione automatizzata per eliminare i video con nudità, sesso, violenza, contenuti grafici, attività illegali e violazioni della sua politica di sicurezza sui minori. Se il sistema rileverà un video in quelle categorie, verrà immediatamente rimosso e al creatore verrà data l’opportunità di fare appello ad un moderatore umano.
TikTok: il sistema eliminerà automaticamente i video compromettenti
Fino ad ora, TikTok ha utilizzato moderatori umani negli Stati Uniti per effettuare la revisione dei contenuti; questo è quanto ha detto un portavoce dell’azienda a The Verge. Il cambiamento ha lo scopo in parte di limitare il “volume di video angoscianti” che i moderatori devono guardare, dando loro più tempo da dedicare a clip più complicate, come la disinformazione e quelli di fake news o di teorie complottiste, che richiedono un contesto per essere esaminate correttamente.
L’annuncio fa anche parte del recente sforzo della compagnia che fornisce maggiore trasparenza sulla moderazione, secondo Axios, che per primo ha riportato la notizia.
Il problema che il software di ByteDance dovrà affrontare è che i sistemi automatizzati non sono mai perfetti e alcune community potrebbero essere colpite più duramente da errori nelle rimozioni automatiche. L’app ha una storia di moderazione discriminatoria ed è stata recentemente criticata per aver rimosso due volte un hastag intersex.
TikTok afferma che sta iniziando a utilizzare l’automazione solo dove è questa risulta essere più affidabile; sta testando la tecnologia in altri paesi, tra cui Brasile e Pakistan, e afferma che solo il 5% dei video rimossi dai suoi sistemi avrebbe dovuto essere autorizzato. È un numero basso, ma se messo nel contesto di quanti video rimuove solitamente TikTok (per darvi una stima, pensate che la compagnia ha eliminato 8.540.088 clip negli Stati Uniti durante i primi tre mesi del 2021, questo dato potrebbero finire per essere decine o centinaia di migliaia di volte superiore a quello attuale.
Ad ogni modo, un portavoce afferma che i moderatori umani continueranno a controllare i rapporti della community, gli appelli e altri video segnalati dai suoi sistemi automatizzati.