23 April 2021
La Commissione Europea ha varato e svelato una bozza di Regolamento sull’intelligenza artificiale (Regulation on European Approach for Artificial Intelligence), per rinnovare e armonizzare le regole europee in materia.
L’obiettivo, prioritario nell’agenda dell’esecutivo von der Leyen, è quello di contrastare gli utilizzi della tecnologia che possano risultare lesivi per «i diritti fondamentali e la sicurezza» dei cittadini Ue. Fra le applicazioni che dovrebbero essere vietate ci sono quelle capaci di «manipolare le persone attraverso tecniche subliminali al di là della loro coscienza» o che sfruttano le vulnerabilità di gruppi particolarmente fragili, come i bambini o le persone con disabilità.
Ma la stretta includerà anche sistemi di social scoring, i «punteggi» attribuiti da governi come quello cinese per valutare l’affidabilità dei cittadini, e i sistemi di riconoscimento facciale: le tecnologie di riconoscimento biometrico dovrebbero essere proibite, con l’unica eccezione di casi emergenziali come la ricerca di vittime di rapimenti, il contrasto all’attività terroristica o le indagini su criminali. I trasgressori, a quanto si legge nel testo della Commissione, potrebbero incorrere in sanzioni amministrative fino a 30 milioni di euro o, nel caso si tratti di aziende, multe fino al 6% del proprio fatturato complessivo.
Nella Ue, ha detto la vicepresidente della Commissione Margrethe Vestager, «non c’è posto per la sorveglianza di massa. Per l’intelligenza artificiale, la fiducia non è facoltativa, è indispensabile. Queste regole rappresentano una svolta, che consentirà all’Ue di guidare lo sviluppo di nuove norme globali per garantire che l’Ai possa essere considerata affidabile».
Nella sua proposta, la Commissione identifica livelli di rischio differenti per le tecnologie di intelligenza artificiale.
Al livello «inaccettabile» di rischio appartengono quelle che possono rappresentare una minaccia evidente alla sicurezza o ai diritti delle persone, come nei casi già citati di strumenti di manipolazione (ne sono esempio i giocattoli con assistenti vocali che incitano o possono incitare a comportamenti pericolosi i minori) o di “punteggio” ai cittadini (sistemi sviluppati con AI che consentono ai governi di identificare e classificare i cittadini in base a determinate caratteristiche).
Le tecnologie ad «alto rischio» vanno dai software per il reclutamento di lavoratori ai sistemi di valutazione del credito, ricomprendendo più in generale i sistemi che possono ledere un diritto individuale. Il loro utilizzo è possibile e non vietato tout court, come nel caso del livello «inaccettabile», purché si sottopongano a una valutazione rigorosissima e garantiscano una serie di tutela a favore dei cittadini. È il caso dei sistemi di riconoscimento facciale, vietati in «linea di principio» ma attivabili per una ristrettissima minoranza di emergenze e solo con il via libera di un organo giudiziario.
Fra le tecnologie ritenute a basso rischio spiccano i comuni chatbot, gli assistenti vocali usati sopratutto nei servizi di customer care, mentre fra quelle a minimo rischio compaiono i filtri anti-spam o i videogiochi sviluppati con sistemi di AI.
Fonte: Il Sole 24Ore