Rivista Italiana di Informatica e Diritto (Mar 2022)

Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech

  • Pietro Dunn

DOI
https://doi.org/10.32091/RIID0064
Journal volume & issue
Vol. 4, no. 1
pp. 133 – 144

Abstract

Read online

La necessità per gli intermediari digitali di moderare i contenuti pubblicati e diffusi in rete dagli utenti si è fatta negli anni sempre più pressante. A fronte della crescita vertiginosa del flusso informazionale digitale, peraltro, si è reso oggigiorno essenziale il ricorso a strumenti di moderazione algoritmica per la rilevazione dei contenuti da rimuovere. Anche la rilevazione dei discorsi d’odio (hate speech) si fonda attualmente su un utilizzo massiccio di sistemi di intelligenza artificiale e machine-learning: la letteratura, tuttavia, ha rilevato come tali sistemi siano sovente viziati da bias discriminatori che rendono particolarmente elevato il rischio di falsi positivi ai danni delle minoranze. Il presente contributo pone in luce come nel sistema costituzionale europeo il contrasto ai contenuti d’odio sia giustificato dall’esigenza di perseguire un’uguaglianza sostanziale di tutte le componenti sociali e come, pertanto, un’applicazione discriminatoria del divieto di hate speech sia in sé incoerente con il sistema di valori dell’Unione europea. Se, dunque, l’intelligenza artificiale rappresenta uno strumento essenziale e ineludibile per garantire un più sicuro e tollerante ecosistema digitale, un elevato margine di errore, in termini di falsi positivi, non risulta essere pienamente accettabile. Occorre, pertanto, un ripensamento delle strategie legislative nell’ottica di offrire più adeguate garanzie, sostanziali e procedurali, a tutela della libertà di espressione e del diritto di non discriminazione dei gruppi marginalizzati.

Keywords