
Cybertruck con FSD si schianta e riaccende il dibattito sulla guida autonoma di Tesla e la promessa di meno incidenti
Un recente incidente che ha coinvolto un Tesla Cybertruck con il Full Self-Driving (FSD) attivo ha riacceso le discussioni su sicurezza, capacità e limiti dell’assistenza avanzata alla guida. Il proprietario del pick-up, uno sviluppatore di software in Florida, ha voluto mettere alla prova l’aggiornamento del FSD, ma ci ha rimesso il Cybertruck distrutto contro un palo della luce. Se sorvoliamo sulla propagandata resistenza del Cybertruck che si è rivelato frangibile tanto quanto le auto più recenti, è lo stesso proprietario del pick-up Tesla a guida autonoma a mettere in guardia gli altri proprietari di Tesla. L’episodio, documentato in un post virale su X, evidenzia le persistenti difficoltà del software nel riconoscere elementi dell’infrastruttura urbana e della segnaletica orizzontale.
L’INCIDENTE DEL TESLA CYBERTRUCK CON FSD ATTIVO
Il proprietario del Cybertruck ha raccontato su X che il suo pick-up, aggiornato alla versione 13.2.4 di FSD, stava percorrendo la corsia libera più a destra qualche istante prima dell’impatto. Mentre il conducente probabilmente era distratto a fare altro, il Cybertruck ha continuato ad andare dritto sulla corsia che però si interrompe per delimitare un’area di transito dei pedoni. Per fortuna nessuno transitava in quel momento e anche il guidatore è uscito illeso dal pick-up, che è andato distrutto contro il palo della luce all’altezza di un attraversamento pedonale. Il post dell’incidente su X ha aperto il dibattito con diversi spunti di riflessione.
Soooooo my @Tesla @cybertruck crashed into a curb and then a light post on v13.2.4.
Thank you @Tesla for engineering the best passive safety in the world. I walked away without a scratch.
It failed to merge out of a lane that was ending (there was no one on my left) and made… pic.twitter.com/vpT4AGz8jZ
— Jonathan Challinger (@MrChallinger) February 9, 2025
PERCHE’ IL TESLA CYBERTRUCK CON FSD NON HA EVITATO IL PALO?
Nel post su X, il conducente scrive: “Quindi, il mio Tesla Cybertruck si è schiantato contro un marciapiede e poi contro un palo della luce con la versione v13.2.4. Grazie Tesla per aver progettato il miglior sistema di sicurezza passiva al mondo. Sono uscito illeso, senza un graffio. Non è riuscito a uscire da una corsia che stava terminando (non c’era nessuno alla mia sinistra)”.
Mentre altri utenti nei commenti ipotizzano al fatto che il Cybertruck viaggiava su una corsia dove non doveva essere e alla mancata supervisione del conducente, il guaio – se sarà confermato dai dati di guida – è che il FSD Tesla non ha evitato neppure l’impatto contro il palo, che è un oggetto molto comune ai margini delle strade.
TESLA FSD: LA PROMESSA PIU’ DIFFICILE DI ELON MUSK
“A essere onesti, il palo era in una posizione strana, ma non c’era motivo per cui FSD non dovesse cambiare corsia”, ha commentato Challinger. “Anche se non avesse cambiato corsia, il sistema avrebbe comunque dovuto evitare l’ostacolo.”
L’episodio solleva nuovamente un tema centrale nel dibattito sulla guida autonoma di Tesla: la difficoltà del software nel rilevare e reagire correttamente a elementi fissi delle infrastrutture cittadine, come pali, cordoli e delimitazioni per piste ciclabili. Negli ultimi mesi, numerosi video hanno mostrato incidenti simili, con veicoli Tesla che, con FSD attivo, si scontrano con barriere urbane o passaggi a livello che un conducente umano avrebbe facilmente evitato. Uno di questi è mostrato nel video della Tesla Model 3 con FSD v10 che urta contro i pali della pista ciclabile.
Lo stesso Challinger ha ammesso la sua responsabilità nell’incidente, sottolineando che, nonostante il nome del software, è fondamentale mantenere la massima attenzione alla guida. “Grande errore da parte mia, ovviamente. Non fate il mio stesso errore. State attenti. Può succedere. Seguo Tesla e FSD da vicino e non avevo mai sentito di incidenti con la V13 prima di questo”. Certamente un monito più morbido e cauto del programmatore che ha accusato Tesla di usare i clienti come manichini da crash test.