15 February 2021
I veicoli a guida autonoma sono una delle frontiere del futuro digitale e della sicurezza per la mobilità dell’Unione Europea. Basata sull’uso dell’intelligenza artificiale (IA), questa tecnologia dovrebbe ridurre gli incidenti stradali e le vittime, rimuovendo la causa più comune: la variabile umana. Ma allo stesso tempo, potrebbe rappresentare un tipo di rischio completamente diverso per conducenti, passeggeri e pedoni: come tutti i sistemi IT, i veicoli autonomi sono vulnerabili ad attacchi che potrebbero comprometterne il corretto funzionamento.
Per esaminare i rischi per la sicurezza informatica connessi all’intelligenza artificiale nei veicoli a guida autonoma, il Joint Research Centre (JRC) e l’Agenzia dell’UE per la cibersicurezza (ENISA) hanno pubblicato un rapporto che fornisce raccomandazioni per mitigare questi rischi.
Alla base dei veicoli autonomi ci sono sistemi di intelligenza artificiale che impiegano tecniche di apprendimento autonomo per raccogliere, analizzare e trasferire dati, al fine di prendere decisioni al posto dell’essere umano. I sistemi IA applicati al settore della mobilità stanno implementando il riconoscimento dei segnali stradali e della segnaletica orizzontale, ma anche il rilevamento dei veicoli, la stima della velocità di movimento e la pianificazione del percorso.
Oltre alle minacce non intenzionali (come come malfunzionamenti improvvisi), questi sistemi sono vulnerabili ad attacchi intenzionali, che hanno lo scopo specifico di interferire con il sistema di intelligenza artificiale. Per interrompere le funzioni critiche per la sicurezza, possono essere messe in atto alterazioni come l’aggiunta di vernice sulla strada per fuorviare la navigazione o adesivi su un segnale di stop per impedirne il riconoscimento.
Questi attacchi intenzionali – così come i malfunzionamenti non intenzionali – possono portare il sistema di intelligenza artificiale che guida il veicolo autonomo a classificare erroneamente gli oggetti lungo il percorso e a determinarne un comportamento imprevedibile e potenzialmente pericoloso per passeggeri, altri mezzi e pedoni.
La prima raccomandazione è di eseguire regolarmente le valutazioni della sicurezza dei componenti dell’IA durante il loro ciclo di vita: “Questa convalida di modelli e dati è essenziale per garantire che il veicolo si comporti sempre correttamente di fronte a situazioni impreviste o attacchi dannosi”, si legge nel rapporto.
Sarebbe poi necessaria l’implementazione dei processi di valutazione del rischio con il supporto di servizi di intelligence: ciò potrebbe consentire l’identificazione di potenziali minacce emergenti legate alla diffusione dell’intelligenza artificiale nella guida autonoma.
Secondo gli esperti, l’intero settore dovrebbe essere regolato da politiche e da una cultura di sicurezza dell’IA.
L’ultimo punto riguarda l’aumento di preparazione nelle capacità di risposta agli incidenti da parte del settore automobilistico, per gestire i nuovi problemi di sicurezza informatica legati all’IA nella guida di veicoli autonomi.
Fonte: eunews