Tesla con FSD v13 va in retromarcia ma non vede i pali: schianto

Tesla con FSD v13 va in retromarcia ma non vede i pali: schianto

Cybertruck con FSD si schianta e riaccende il dibattito sulla guida autonoma di Tesla e la promessa di meno incidenti

11 Febbraio 2025 - 10:52

Un recente incidente che ha coinvolto un Tesla Cybertruck con il Full Self-Driving (FSD) attivo ha riacceso le discussioni su sicurezza, capacità e limiti dell’assistenza avanzata alla guida. Il proprietario del pick-up, uno sviluppatore di software in Florida, ha voluto mettere alla prova l’aggiornamento del FSD, ma ci ha rimesso il Cybertruck distrutto contro un palo della luce. Se sorvoliamo sulla propagandata resistenza del Cybertruck che si è rivelato frangibile tanto quanto le auto più recenti, è lo stesso proprietario del pick-up Tesla a guida autonoma a mettere in guardia gli altri proprietari di Tesla. L’episodio, documentato in un post virale su X, evidenzia le persistenti difficoltà del software nel riconoscere elementi dell’infrastruttura urbana e della segnaletica orizzontale.

L’INCIDENTE DEL TESLA CYBERTRUCK CON FSD ATTIVO

Il proprietario del Cybertruck ha raccontato su X che il suo pick-up, aggiornato alla versione 13.2.4 di FSD, stava percorrendo la corsia libera più a destra qualche istante prima dell’impatto. Mentre il conducente probabilmente era distratto a fare altro, il Cybertruck ha continuato ad andare dritto sulla corsia che però si interrompe per delimitare un’area di transito dei pedoni. Per fortuna nessuno transitava in quel momento e anche il guidatore è uscito illeso dal pick-up, che è andato distrutto contro il palo della luce all’altezza di un attraversamento pedonale. Il post dell’incidente su X ha aperto il dibattito con diversi spunti di riflessione.

PERCHE’ IL TESLA CYBERTRUCK CON FSD NON HA EVITATO IL PALO?

Nel post su X, il conducente scrive: “Quindi, il mio Tesla Cybertruck si è schiantato contro un marciapiede e poi contro un palo della luce con la versione v13.2.4. Grazie Tesla per aver progettato il miglior sistema di sicurezza passiva al mondo. Sono uscito illeso, senza un graffio. Non è riuscito a uscire da una corsia che stava terminando (non c’era nessuno alla mia sinistra)”.

Mentre altri utenti nei commenti ipotizzano al fatto che il Cybertruck viaggiava su una corsia dove non doveva essere e alla mancata supervisione del conducente, il guaio – se sarà confermato dai dati di guida – è che il FSD Tesla non ha evitato neppure l’impatto contro il palo, che è un oggetto molto comune ai margini delle strade.

TESLA FSD: LA PROMESSA PIU’ DIFFICILE DI ELON MUSK

“A essere onesti, il palo era in una posizione strana, ma non c’era motivo per cui FSD non dovesse cambiare corsia”, ha commentato Challinger. “Anche se non avesse cambiato corsia, il sistema avrebbe comunque dovuto evitare l’ostacolo.”

L’episodio solleva nuovamente un tema centrale nel dibattito sulla guida autonoma di Tesla: la difficoltà del software nel rilevare e reagire correttamente a elementi fissi delle infrastrutture cittadine, come pali, cordoli e delimitazioni per piste ciclabili. Negli ultimi mesi, numerosi video hanno mostrato incidenti simili, con veicoli Tesla che, con FSD attivo, si scontrano con barriere urbane o passaggi a livello che un conducente umano avrebbe facilmente evitato. Uno di questi è mostrato nel video della Tesla Model 3 con FSD v10 che urta contro i pali della pista ciclabile.

Lo stesso Challinger ha ammesso la sua responsabilità nell’incidente, sottolineando che, nonostante il nome del software, è fondamentale mantenere la massima attenzione alla guida. “Grande errore da parte mia, ovviamente. Non fate il mio stesso errore. State attenti. Può succedere. Seguo Tesla e FSD da vicino e non avevo mai sentito di incidenti con la V13 prima di questo”. Certamente un monito più morbido e cauto del programmatore che ha accusato Tesla di usare i clienti come manichini da crash test.

Commenta con la tua opinione

X