Italia markets close in 3 hours 25 minutes
  • FTSE MIB

    25.422,11
    +65,96 (+0,26%)
     
  • Dow Jones

    35.116,40
    +278,24 (+0,80%)
     
  • Nasdaq

    14.761,29
    +80,23 (+0,55%)
     
  • Nikkei 225

    27.584,08
    -57,75 (-0,21%)
     
  • Petrolio

    69,39
    -1,17 (-1,66%)
     
  • BTC-EUR

    32.198,94
    -98,38 (-0,30%)
     
  • CMC Crypto 200

    933,87
    -9,57 (-1,01%)
     
  • Oro

    1.822,10
    +8,00 (+0,44%)
     
  • EUR/USD

    1,1867
    -0,0001 (-0,01%)
     
  • S&P 500

    4.423,15
    +35,99 (+0,82%)
     
  • HANG SENG

    26.426,55
    +231,73 (+0,88%)
     
  • Euro Stoxx 50

    4.136,28
    +18,33 (+0,45%)
     
  • EUR/GBP

    0,8518
    -0,0008 (-0,09%)
     
  • EUR/CHF

    1,0728
    +0,0004 (+0,04%)
     
  • EUR/CAD

    1,4884
    +0,0015 (+0,10%)
     

Alcuni Stati Usa fermano i sistemi di riconoscimento facciale delle forze dell'ordine

·3 minuto per la lettura

Tra Europa e Stati Uniti, le tecnologie per il riconoscimento facciale continuano a dividere e preoccupare. La recente proposta di Regolamento sull’Intelligenza artificiale europea inserisce tra gli usi “a rischio elevato” tutte le applicazioni di sistemi di identificazione biometrica in luoghi accessibili al pubblico, con scopi di social scoring o repressione di reati, ribadendo il divieto di utilizzo a fini di sorveglianza di massa. Negli Stati Uniti il problema è percepito con una forza ancora maggiore, soprattutto per quanto riguarda le discriminazioni razziali che possono derivare dall’applicazione dei software per il riconoscimento facciale.

Secondo report di Amnesty International, uno dei problemi maggiori sta nel fatto che questi sistemi possono essere utilizzati senza che il soggetto ne sia a conoscenza, e proprio questa mancanza di trasparenza potrebbe portare le persone a essere più timorose e caute nell’esprimere il loro dissenso. Un pericolo ancora maggiore riguarda le persone di colore. I sistemi di riconoscimento facciale hanno provato storicamente di essere meno accurati nei confronti di etnie non caucasiche, perché gli algoritmi sono per la maggior parte creati a partire da dataset costituiti prevalentemente da immagini di uomini bianchi. Una pubblicazione del MIT del 2018 ha dimostrato l’inefficacia dei sistemi Microsoft e IBM nell’identificare correttamente individui con la pelle scura, e altri studi hanno trovato falle nel sistema Rekognition di Amazon, poco accurato nel riconoscimento di volti femminili e di persone di colore.

Nonostante le aziende abbiano confutato in parte i metodi usati dai ricercatori, tutte e tre, nel giugno dello scorso anno, si sono auto imposte una regolamentazione con restrizioni riguardo alla vendita di queste tecnologie alla polizia, almeno fino a quando non sarà presente una legge nazionale in materia. Sia Amazon che Microsoft hanno specificato che qualsiasi legge dovrà avere le sue basi nel più rigoroso rispetto dei diritti umani, e IBM si è spinta anche oltre, rinunciando in toto al settore denunciandone, di fatto, un’incompatibilità con un’applicazione priva di distorsioni. Ma dopo un anno di riflessioni, scatenate dall’uccisione di George Floyd e dalle proteste del movimento Black Lives Matter, che hanno portato i sostenitori dei diritti civili a chiedere maggiori certezze dei rapporti tra forze dell’ordine e cittadini soprattutto quando entrano in ballo i pregiudizi razziali, tutto è ancora fermo al punto di partenza.

A poco è servito l’impulso dato dalle moratorie delle grandi aziende. A livello nazionale esiste solo una proposta dei Democratici per mettere in pausa l’uso di queste tecnologie fino al raggiungimento di un quadro legislativo coerente, mentre le uniche iniziative in materia sono state prese nei pochi stati più attenti al rispetto dei diritti. Sempre sull’onda delle proteste, lo Stato di New York ha approvato una legge che richiede che i dipartimenti di polizia siano trasparenti riguardo all’uso dei sistemi di sorveglianza, rivelando come le tecnologie di riconoscimento facciale siano state usate in oltre 22mila casi negli ultimi tre anni, anche per tracciare i manifestanti del movimento Black Lives Matter. Anche nello stato di Washington (così come in Maryland e in Virginia) analoghe tecnologie sono state usate per identificare manifestanti accusati di reati, cosa che ha portato all’annuncio, poche settimane fa, del blocco entro luglio del sistema di riconoscimento facciale in uso dalle forze dell’ordine a Washington e in Virginia.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli