Header Ads


TESLA: PRIMO INCIDENTE MORTALE CON AUTOPILOTA. E LE TRE LEGGI DELLA ROBOTICA?

La National Highway Traffic Safety sta investigando su un incidente mortale che risale al 2015 e che ha visto coinvolta una Tesla Model S mentre il conducente stava utilizzando il sistema di guida semi autonoma. È la Tesla stessa ad aver segnalato l'incidente alla NHTSA, specificando che il sistema di guida in automatico era attivato quando l'incidente si era già verificato.

robert cicchetti / Shutterstock.com


Tesla ha subito precisato che si tratta del primo incidente mortale dopo 210 milioni di chilometri percorsi dalle Model S con questo sistema Autopilot, ma in America - dopo le polemiche sul codice della morte delle auto senza pilota - il caso è finito sulle home di tutti i siti. E su Twitter il presidente della compagnia, Elon Musk, ha fatto precedere la dichiarazione ufficiale dalle condoglianze ai familiari della vittima.

(Elon Musk ha problemi con le immagini:-) 



Aggiungendo, poi, che il pilota automatico non ha ancora una funzionalità perfetta al punto che la stessa Casa richiede al conducente un livello di attenzione sul sistema.

La dinamica dell'incidente è stata ricostruita così. Il conducente della Tesla si è scontrato  frontalmente oltre che a forte velocità il rimorchio di un camion che improvvisamente era sbucato perpendicalmente all'auto. Una fatalità ha voluto che in quel momento la visibilità fosse compromessa sia per il sistema automatico sia probabilmente per il guidatore: il rimorchio infatti era di colore chiaro o metallico e sembra si sia mimetizzato con il cielo particolarmente luminoso. Inoltre la Tesla si è infilata sotto il rimorchio, un impatto frontale - secondo l’azienda - avrebbe attivato i freni automaticamente. Non è escluso che l'incidente sia dovuto anche ad una condotta poco prudente del guidatore. Su youtube sono sempre più frequenti i filmati postati da guidatori che li ritraggono intenti a leggere se non addirittura a dormire sfruttando la guida autonoma, contravvenendo così alle regole dei costruttori che invece continuano a consigliare un atteggiamento molto più attento.

Il problema è molto più complesso: supponiamo di fidarci delle 3 leggi della robotica ideate da Asimov: in queste tre leggi non è contemplato ad esempio il fatto che un robot come potrebbe essere l'autopilota di un auto possa prendere una decisione tra salvare il pilota o numerosi altri passanti.

È il concetto di male minore: voi comprereste un'auto a guida autonoma che in qualche riga del suo algoritmo abbia scritto di uccidere il "pilota-passeggero" per salvere dei pedoni? 

A scanso di equivoci, la mia risposta è si: la comprerei. C'è poco da questionare, 210 milioni di km, 1 solo morto: è il sistema più sicuro al mondo, ed è solamente in fase di beta! E pare che  il guidatore abbia contravvenento così alle regole dei costruttori che continuano a consigliare un atteggiamento molto più attento (sembra infatti che fosse intento a guardare un film). Sicuramente il sistema automatico di guida aumenta la sua sicurezza in presenza di altri apparati simili. Attualmente infatti il maggior numero di incidenti è dovuto all'imprevedibilità del fattore umano.

Robot e umano - Shutterstock

.
LE TRE LEGGI DELLA ROBOTICA SECONDO ASIMOV 

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. » 

1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

Claudio Pasqua 

Nessun commento