La guida autonoma supera 2 milioni di miglia di test negli USA, ma gli esperti europei spiegano che i rischi per la cybersecurity sono ancora sottovalutati
La guida autonoma incassa il colpo degli esperti sul livello di cybersecurity e i rischi per pedoni e passeggeri. Il rapporto dell’Agenzia dell’Unione europea per la cybersecurity (ENISA) e del Centro comune di ricerca (JRC) lancia l’allarme sui rischi per la sicurezza informatica connessi all’intelligenza artificiale (AI) nei veicoli autonomi. Intanto i test di guida autonoma negli USA hanno superato la soglia di 2 milioni di miglia, non senza imprevisti. Ai paragrafi qui sotto trovate il rapporto completo dei disimpegni 2020 della guida autonoma, cioè gli errori e le situazioni in cui l’auto restituisce i comandi al collaudatore. Ecco qual è lo stato attuale della tecnologia di guida autonoma e i rischi per la sicurezza stradale.
GUIDA AUTONOMA E CYBERSECURITY: COSA PENSANO ENISA E JRC
L’intelligenza artificiale di un veicolo autonomo è progettata per riconoscere segnali stradali e segnaletica orizzontale, rilevare veicoli, interpretarne la velocità e la posizione. A tutti questi compiti la non semplice funzione di pianificare il percorso. Praticamente ciò che oggi è demandato al controllo umano sulle auto senza assistenza alla guida. Oggi i test sono orientati a verificare quelle che gli esperti definiscono “minacce non intenzionali”, cioè malfunzionamenti improvvisi della guida autonoma. Si tratta dei casi in cui l’intelligenza artificiale alza bandiera bianca, perché non si trova nelle condizioni di sicurezza di poter controllare l’auto e restituisce i comandi al conducente. Questa fase è nel gergo definita “disimpegno” della guida autonoma (trovate il rapporto completo 2020 nei successivi paragrafi).
IL MODO PIU’ SEMPLICE E RISCHIOSO DI ILLUDERE LE AUTO A GUIDA AUTONOMA
Secondo gli esperti ENISA e JRC ci sono altri rischi che riguardano la cybersecurity e come può impattare sulla sicurezza di pedoni e occupanti dei veicoli a guida autonoma. Sono classificate “minacce intenzionali” quelle con lo scopo di interferire con il sistema di intelligenza artificiale e di interrompere le funzioni per la sicurezza. Non serve necessariamente un attacco informatico per mettere in crisi l’intelligenza artificiale secondo gli esperti. “L’aggiunta di vernice sulla strada per fuorviare la navigazione o adesivi su un segnale di stop per impedirne il riconoscimento sono esempi di tali attacchi. Queste alterazioni possono portare il sistema di intelligenza artificiale a classificare erroneamente gli oggetti e il veicolo autonomo a comportarsi in un modo che potrebbe essere pericoloso”.
MALFUNZIONAMENTI DELLA GUIDA AUTONOMA NEI TEST 2020
“Quando un veicolo autonomo insicuro attraversa il confine di uno Stato membro dell’UE, lo stesso accade per le sue vulnerabilità”, affermato Juhan Lepassaar, direttore esecutivo dell’Agenzia dell’UE per la sicurezza informatica. Sulla stessa scia commenta Stephen Quest, Direttore generale JRC: “È importante che le normative europee garantiscano che i vantaggi della guida autonoma non siano controbilanciati da rischi per la sicurezza”. I Costruttori e le aziende che partecipano ai programmi Autonomous Vehicle Tester sono obbligati a comunicare i rapporti annuali sulla frequenza di disimpegno dei veicoli a guida autonoma. Cioè le condizioni in cui la modalità autonoma si disattiva nei test sia per guasti sia situazioni pericolose che richiedono il controllo umano. Al link seguente si può vedere il rapporto completo 2020 dei disimpegni della guida autonoma nei test di ogni azienda.
Iscriviti gratis al nostro canale whatsapp cliccando qui o inquadrando il QR Code