Sono giorni che sul web e nei media di comunicazione “tradizionali” sentiamo parlare di proposte a livello europeo che vorrebbero fare chiarezza sul modo in cui il riconoscimento facciale sia entrato a far parte della nostra vita quotidiana o, meglio, di come le magie dello sblocco di un terminale con il volto o i servizi di sorveglianza con riconoscimento facciale possano, in realtà, nascondere aspetti critici su sicurezza e privacy.

Ban o non ban? Questo è il dilemma

Uno dei recenti scandali che sicuramente ricorderete è legato all’app mobile FaceApp, di cui vi segnaliamo un approfondimento esaustivo pubblicato sulle pagine de Linkiesta, e al modo in cui il nostro volto fosse “concesso in licenza” per uso e consumo dello sviluppatore: fu chiaro allora come fondamentali siano, per quanto tediosi e prolissi, i termini di utilizzo dell’applicativo e quanto pericoloso possa essere concedere la propria immagine per una manciata di like.
Si tratta di una goccia in un oceano per una problematica che più volte ha bussato ai palazzi della Commissione europea e, come fu con il GDPR, sembra sia ora arrivato il momento di regolamentare in virtù di principi etici e di trasparenza a cui l’Intelligenza Artificiale non è soggetta.
Si parla quindi di un ban temporaneo di 5 anni per l’uso di tecnologie dedicate al riconoscimento facciale per enti pubblici e compagnie private, una regulation che, senza troncare di netto gli evidenti benefici apportati dalla tecnologia in ambito di sicurezza e prevenzione del crimine, ponga limiti e confini netti per la tutela della privacy.
L’argomento è spinoso considerando gli interessi economici e politici in campo, e soprattutto non relativo esclusivamente alle realtà europee, poiché sono direttamente chiamate in causa le Big  dell’Information Technology con Google e Microsoft in prima linea (Apple, al momento, non si è schierata pubblicamente).
Prima di dare voce alle Big, cerchiamo di fare il punto della situazione, grazie a un articolo esaustivo pubblicato sulle pagine del Corriere Comunicazioni. Un AI White Paper, come leakato da Euractiv, sarebbe allo studio dalla Commissione europea contenente le raccomandazioni giunte da Bruxelles secondo cui “L’impiego della tecnologia di riconoscimento facciale da parte di attori privati o pubblici negli spazi pubblici sarebbe proibito per un periodo definito (per esempio 3-5 anni) durante il quale potrebbe essere individuata e sviluppata una solida metodologia per valutare gli impatti di questa tecnologia e possibili misure di gestione del rischio“.

In che modo quindi la Commissione europea starebbe affrontando l’argomento? Secondo tali indiscrezioni, con 5 punti non mutuamente esclusivi:

  • Voluntary labelling – Gli sviluppatori possono scegliere di aderire a determinate norme sull’AI etico e otterrebbero un’etichetta che certifica affidabilità e sicurezza del prodotto e che vincola a rispettare precisi requisiti.
  • Sectorial requirements for public administration and facial recognition – Requisiti specifici solo per la pubblica amministrazione e il riconoscimento facciale: l’UE potrebbe adottare un approccio simile a quello del Canada con la sua Directive on automated decision making, che fissa gli standard minimi per le agenzie governative che vogliono usare sistemi automatizzati per il riconoscimento biometrico finalizzato ad assumere decisioni.
  • Mandatory risk-based requirements for high-risk applications – Requisiti obbligatori basati sul livello di rischio. I settori sensibili includono sanità, trasporti, forze di polizia e autorità giudiziaria, dove il potenziale di arrecare danno fisico o materiale all’individuo è maggiore.
  • Safety and liability – Sicurezza e responsabilità: Bruxelles scrive che potrebbero essere necessari adeguamenti normativi o legali per definire la responsabilità che ricade sulle aziende che sviluppano le soluzioni di intelligenza artificiale e distinguerle dalle responsabilità di chi fabbrica i prodotti che incorporano l’AI.
  • Governance – La Commissione afferma che un sistema efficace di attuazione delle regole e controllo è essenziale e richiede una supervisione pubblica con il coinvolgimento delle autorità nazionali anche in sinergia tra loro.

Tra le proposte sopra vagliate, il documento finale potrebbe essere una risultante delle ultime tre, ma di certo torneremo sull’argomento qualora ci fossero novità o altre indiscrezioni.

Dinanzi a questi moniti, come hanno reagito le grandi compagnie tecnologiche? Sulle pagine di The Verge sono raccolte le posizioni di Google e Microsoft tramite Sundar Pichai (CEO di Alphabet e Google) e Brad Smith (Chief Legal Officer per Microsoft):

Per Pichai si tratta sicuramente di una buona idea, in quanto è meglio affrontare il problema subito, una volta e per tutte, anziché successivamente quando, e qui è nostro il pensiero, potrebbero essere elevati i costi da sostenere per allinearsi alle direttive.
Secondo invece Brad Smith l’approccio da adottare è quello di lavorare a tali regolamentazioni in “corso d’opera”, evitando queste soluzioni estreme da ban o tolleranza zero. Nella sua visione la tecnologia e l’attuale implementazione necessitano di essere affinate e per farlo è fondamentale che siano sempre più persone a usarle ed essere coinvolte.

E voi, cosa ne pensate? Preferireste che il ban fosse applicato con il potenziale rischio che il mondo che ci circonda possa essere meno sicuro (dopotutto si andrebbero a limitare fortemente anche le “intelligence” dei servizi di vigilanza) o che le necessarie regolamentazioni fossero implementate con i tempi, biblici, e i compromessi, spesso incomprensibili, a cui siano purtroppo abituati?

Articolo di Windows Blog Italia