Agcom adotta nuove norme per frenare video sharing che danneggiano minori
ROMA (Reuters) - Agcom, autorità che vigila sulle comunicazioni, ha approvato il regolamento che definisce le norme per la tutele dei minori e dei consumatori da contenuti nocivi diffusi sulle piattaforme digitali di condivisione di video.
Le nuove regole le consentono di ordinare alle piattaforme di video sharing di rimuovere i "contenuti dannosi".
Il nuovo regolamento, spiega in una nota Agcom, entrerà in vigore l'8 gennaio 2024 e definisce le procedure "con cui l’Autorità può limitare la circolazione di contenuti destinati al pubblico italiano, impartendo un ordine di rimozione alle piattaforme ospitanti, anche nel caso in cui queste siano stabilite presso un altro Stato membro.
L'autorità cita i video potenzialmente dannosi per i minori, che incitino all'odio razziale, sessuale, religioso o etnico, nonché che offendano la dignità umana, o che non tutelino adeguatamente i consumatori. La nuova normativa potenzialmente riguarda servizi come Youtube di Google, Tik Tok e Instagram di Meta.
Le nuove regole dell'UE, note come Digital Services Act (DSA), impongono alle Big Tech di fare di più per combattere i contenuti online dannosi e illegali, in particolare quelli rivolti ai minori.
(In redazione Stefano Bernabei, editing Claudia Cristoferi)