Guida autonoma: il 99% degli incidenti nei test è per errore umano

Gli incidenti nei test di guida autonoma, confermano che molte collisioni si sarebbero potute evitare senza un conducente umano al volante

29 dicembre 2021 - 13:00

La guida autonoma di livello 5, senza conducente, è nel pieno dei test che proseguono in diversi Paesi. Nulla o poco viene detto finché si verifica un evento che desta scalpore. L’incidente mortale di un’auto Uber nei test (che ha spinto l’azienda a vendere la divisione di ricerca) è l’esempio lampante. Una ricerca americana ha indagato sul numero di incidenti nei test di guida autonoma in California, scoprendo che la maggior parte delle volte, il problema è legato all’errore umano. Ecco tutti i dati dell’indagine IDTechEX.

GUIDA AUTONOMA “INAFFIDABILE” SOLO IN 2 INCIDENTI SU 83

Gli incidenti delle auto a guida autonoma nei test sono al centro d’incessanti collaudi di Costruttori, Aziende e Regolatori. L’incognita più grande è se la tecnologia potrà garantire un’elevata affidabilità o almeno maggiore di quella umana. Lo studio ha analizzato gli incidenti stradali durante i test con veicoli a guida autonoma pubblicati sul sito del Dipartimento dei Trasporti della California. Dei 183 incidenti stradali verificatisi, 83 sono registrati durante il controllo autonomo dei comandi e solo 2 di questi è stato causato da un errore del software. Mentre il resto (81 incidenti) è stato attribuito a un errore umano: vuol dire a incidenti provocati da altre auto o da pedoni imprudenti.

INCIDENTI CON GUIDA AUTONOMA PROVOCATI DA ERRORE UMANO

Gli incidenti che rappresentano mediamente la tipologia di collisioni durante i test di guida autonoma, sono stati individuati dai ricercatori di IDTechEX in questi episodi:

1) Un’auto a guida autonoma Pony.ai nel luglio del 2019 è stata colpita da un altro veicolo che ha fatto retromarcia improvvisamente. Come riporta 360Electronics, alla stessa startup sarebbe di recente stata revocata la licenza in California per una collisione (la cui dinamica è ancora da chiarire) tra il veicolo a guida autonoma e uno spartitraffico;

2) Un’auto in modalità di guida autonoma Cruise (la Startup acquistata da General Motors) mentre svoltava a sinistra in un incrocio, è stata colpita da un altro veicolo nel tentativo di superare l’auto a guida autonoma;

3) Sempre un’auto Cruise in modalità di guida autonoma, mentre svoltava a destra in corrispondenza di un incrocio, è stata colpita da un altro veicolo che non si era fermato allo stop;

4) Un altro caso rilevante, coinvolge un veicolo a guida autonoma Zoox (Amazon) guidato da un collaudatore. Il veicolo aveva il semaforo verde a un incrocio ed è stato investito da un’altra auto che scappava dalla polizia;

INCIDENTI E GUIDA AUTONOMA: QUANDO IL SOFTWARE SBAGLIA

Il rapporto sugli incidenti con auto a guida autonoma in California, attribuisce a un errore del software in due eventi registrati con le navette Zoox. In entrambi i casi la navetta Zoox a guida autonoma ha valutato in modo errato lo spazio necessario ad effettuare delle manovre, provocando lievi danni da parcheggio ad altri veicoli. I ricercatori IDTechEX hanno spiegato che l’errore potrebbe essere legato a una zona cieca dei radar montati sui veicoli. La strada verso la commercializzazione delle auto a guida automa SAE 5 è ancora lunga e solo Mercedes – per ora – ha ottenuto la prima approvazione per la guida autonoma di livello 3 in Europa (dopo lo stop di Audi).

1 commento

divaioveronica_15808219
14:31, 29 dicembre 2021

La guida autonoma di livello 5 non sarà mai realizzabile ovunque è inutile prendersi in giro faccio un esempio molto pratico un auto di livello 5 in una città come Napoli non farebbe un metro tanto è vero che i test li fanno in Cina e in America ho detto tutto poi se vogliamo sognare è un altro discorso

POTRESTI ESSERTI PERSO:

Auto usate: +9% degli scambi tra privati da inizio 2022

Gomme invernali 215/55 R17: la classifica di Auto Bild

Incidente apertura sportello: quando è colpa della moto?