Il punto sulle auto senza conducente

Il punto sulle auto senza conducente

Che cos’è LiDAR?

LiDAR è la pratica dell’uso di radiazioni elettromagnetiche non visibili (ad esempio, a infrarossi) per rilevare e misurare la distanza dagli oggetti. LiDAR è l’acronimo di Light Detection And Ranging. Questo articolo è nato da una discussione sulla sicurezza sulle frenate di emergenza e le auto a guida autonoma.

Applicazioni di LiDAR

LiDAR è utilizzato in tutto, dall’agricoltura alla meteorologia, dalla biologia alla robotica, e dall’applicazione della legge alla diffusione del solare fotovoltaico. Potresti vedere il LiDAR referenziato nei report sull’astronomia e sul volo spaziale o potresti sentire il suo uso nelle operazioni di data mining.

Anche sistemi LiDAR che proiettano oggetti in movimento o possono spostarsi da soli. Questi sistemi non statici possono diventare la forma più comune di LiDAR in quanto vengono utilizzati per la visione artificiale in sistemi militari, aerei di rilevamento e prototipi di automobili autonome.

Tuttavia, altre forme di LiDAR non vengono utilizzate per immagini di superfici solide: la NASA utilizza LiDAR nella ricerca atmosferica, mentre altri sistemi LiDAR sono progettati per funzionare e le superfici dell’immagine sott’acqua.

Chiaramente, questa tecnologia è abbastanza flessibile.

Somiglianze con SONAR e RADAR

Quindi, se LiDAR è il rilevamento e la distanza ravvicinata, è simile a SONAR (SOund Navigation And Ranging) e RADAR (RAdio Detection And Ranging)? Sì, un po ‘. Per capire come i tre sono simili, iniziamo parlando di come il SONAR (ecolocalizzazione) e il RADAR funzionano.

SONAR emette una potente onda sonora pulsata di frequenza nota. Quindi, calcolando il tempo necessario al ritorno dell’impulso, è possibile misurare una distanza. Farlo ripetutamente può aiutarti ad avere un buon feeling con ciò che ti circonda.

L’elemento chiave del SONAR è l’onda sonora, ma ci sono molti tipi diversi di onde. Se usiamo lo stesso principio e cambiamo il tipo di onda da un’onda sonora a un’onda elettromagnetica (radio), ottieni RADAR (RAdio Detection And Ranging).

Esistono molti tipi diversi di RADAR che utilizzano diverse frequenze dello spettro. La luce è solo una gamma speciale di lunghezze d’onda rilevabili dall’occhio umano, che è una delle cose che differenzia LiDAR dal RADAR. Ci sono altre differenze tra i due, ma mi concentrerò sulla risoluzione spaziale come la principale differenza.

Il RADAR utilizza un ampio fronte d’onda e lunghezze d’onda lunghe, dando una risoluzione scarsa. Per confronto, LiDAR utilizza laser (fronte d’onda stretto) e lunghezze d’onda molto più brevi. La lunghezza d’onda determina direttamente il potere risolutivo di un sistema di imaging: lunghezze d’onda più corte (corrispondenti a frequenze più alte) aumentano il potere risolutivo.

Sotto una immagine ottenuta con un radar meteorologico

Misurazione con i pixel

LiDAR usa un laser per misurare la distanza, ma non è diverso da un mirino laser: lo puntate verso qualcosa e misurate una distanza. Ma cosa accadrebbe se quella misurazione della distanza fosse interpretata come un singolo pixel? Potresti quindi effettuare numerose misurazioni a distanza e disporle in una griglia; il risultato sarebbe un’immagine che trasmette profondità, analoga a una fotografia in bianco e nero in cui i pixel trasmettono l’intensità della luce. Sembra abbastanza interessante, e potrebbe essere abbastanza utile, vero?

Ma abbiamo ancora diverse domande a cui rispondere prima di poter comprendere appieno come funziona questo sistema.

Di quanti pixel abbiamo bisogno?

Se confrontiamo LiDAR con le prime fotocamere digitali, avremmo bisogno di uno o due megapixel (o da uno a due milioni di pixel). Quindi diciamo che abbiamo bisogno di due milioni di laser, quindi dovremmo misurare la distanza indicata da ognuno di quei laser, quindi altri due milioni di sensori, e poi i circuiti per fare i calcoli.

Forse usare un sacco di laser tutti insieme non è il metodo migliore. E se invece di provare a scattare una “foto” intera in una sola volta, facciamo quello che fanno gli scanner? Vale a dire, potremmo prendere parte dell’immagine e quindi spostarci al pixel successivo e riprendere l’immagine? Sembra un dispositivo molto più semplice che potrebbe essere implementato con un solo laser e un rilevatore. Tuttavia, significa anche che non possiamo prendere una “foto” istantanea come possiamo fare con una fotocamera.

Come spostiamo il nostro pixel?

In uno scanner, il pixel fisico viene spostato lungo l’immagine. Ma ciò non sarebbe pratico in molte situazioni, quindi probabilmente abbiamo bisogno di un metodo diverso.

Con LiDAR, stiamo provando a fare un ‘”immagine in profondità”, si potrebbe dire che stiamo provando a fare un “modello 3D”.

Ricordando le lezioni di matematica fatte in gioventù si può anche usare il sistema di coordinate cartesiane (X, Y, Z) e il sistema di coordinate sferiche (r, theta, phi). Ne parlo perché, supponendo che il LiDAR sia all’origine in un sistema sferico, allora abbiamo solo bisogno di conoscere l’angolo orizzontale (theta), l’angolo verticale (phi) e la distanza (r) per costruire il nostro Modello 3D

Per ottenere un modello 3D completo abbiamo solo bisogno di un laser e un sensore per renderizzare la nostra immagine usando il sistema di coordinate sferiche.

Alcuni sistemi LiDAR sono mobili e utilizzano il GPS o altri sistemi di posizionamento per mappare tutte le letture insieme in un’unica immagine.

In che modo cambiamo rapidamente gli angoli del laser?

Abbiamo due milioni di “pixel” da misurare. Come possiamo aggiustare il nostro laser per misurarli tutti?

Ammettendo 5uS a pixel tra emissione e elaborazione occorrerebbero 10 secondi per ogni singola immagine, decisamente troppo per un veicolo in movimento.

Quindi, come regolano il pixel così velocemente? La chiave è che non smettono mai di regolarlo, usando uno specchio rotante o un prisma che ruota a una velocità molto precisa e ben nota. Il laser viene riflesso da quello specchio o prisma in modo che la sua posizione sia in costante cambiamento ma a una velocità nota. Ciò rende molto veloce e facile regolare uno dei nostri angoli, phi o theta, per scansionare la nostra immagine. Per la scansione dell’altra angolazione, potremmo utilizzare un sistema molto più lento come un motore passo-passo di precisione.

Ma esiste ancora un ultimo grande problema da risolvere.

Come misuriamo la distanza?

Esistono diversi metodi per misurare la distanza con un laser, a seconda di ciò che il sistema sta cercando di ottenere. E un singolo sistema potrebbe utilizzare più metodi contemporaneamente per aumentare la precisione. Tutti i metodi richiedono attrezzature molto precise.

Il più semplice da capire è il tempo di volo (ToF). Questo è anche il più delle volte elencato come il metodo utilizzato per misurare la distanza con un laser. Se si calcola il tempo impiegato dalla luce per percorrere 2 mm, la distanza necessaria per una risoluzione di 1 mm, si ottiene il tempo di 6,67 picosecondi. Ciò richiede alcune attrezzature molto precise da misurare, ma può essere fatto.

Un altro metodo, è la triangolazione, utilizza un secondo specchio rotante per reindirizzare il segnale del ricevitore; misurando il cambiamento dell’angolo, è possibile ottenere una distanza, da notare che per lunghe distanze l’uso dello specchio rotante potrebbe complicare il sistema.

Tale sistema venne perfezionato e reso replicabile Nel 1850, Léon Foucault, insomma nulla di nuovo sotto al sole.

Infine, modulando il laser, è possibile misurare uno spostamento di fase nella modulazione laser. A causa della natura periodica della modulazione non può essere usato da solo per misurare la distanza. Piuttosto, produce un elenco di possibili distanze che possono essere utilizzate in aggiunta a un altro metodo per aumentare la precisione.

Il laser LiDAR

Un’ultima cosa di cui parlare: il laser stesso. Nonostante il nome, la maggior parte dei sistemi LiDAR impiega radiazione infrarossa al posto della luce visibile.

Poiché l’interazione della radiazione elettromagnetica con la materia è regolata dalla lunghezza d’onda, alcune lunghezze d’onda funzionano meglio per determinate applicazioni. Un giorno i laser a microonde (maser) o ai raggi x (xaser) potrebbero essere utilizzati per costruire sistemi LiDAR migliorando notevolmente la loro utilità.

Tesla vs Google

Elon Musk ha messo in dubbio la scelta di Google di utilizzare i sensori LIDAR nel loro programma di auto a guida autonoma. Un confronto tra gli approcci di Google e Tesla ai veicoli autonomi può spiegare perché.

Mentre l’amministratore delegato di Tesla, Elon Musk, e il co-fondatore di Google, Larry Page, sono amici, Musk ha criticato l’uso di Google di LIDAR nelle loro prime auto a guida autonoma.

lo scorso ottobre, Musk ha affermato che la tecnologia LIDAR “non ha senso” da implementare in un’automobile autonoma e che non è “un grande fan di LIDAR”. Anche se non afferma direttamente che Google sta usando la tecnologia sbagliata per le loro macchine, crede che non sia qualcosa che Tesla implementerà nei loro sistemi di pilota automatico.

Musk si è fatto un nome creando e diffondendo idee come PayPal, SpaceX e Tesla. Tuttavia, potrebbe avere torto sull’approccio di Google alla creazione della prima auto a guida autonoma. Google ha insegnato alle proprie auto a navigare nelle strade della città utilizzando sensori e software che rilevano ed evitano oggetti come animali, ciclisti, pedoni, veicoli e altro ancora.

Di seguito è riportato un breve video che spiega come si comporta un’auto a guida autonoma in tutta la città:

https://youtu.be/bDOnn0-4Nq8

L’uso di LIDAR da parte di Google

Mentre Google e Tesla hanno l’obiettivo comune di rendere i trasporti su strada più sicuri e alla fine senza operatore, le loro tecniche sono molto diverse.

Le auto con guida automatica di Google utilizzano LIDAR, che mappa i dintorni dell’auto utilizzando i laser. LIDAR misura la forma e il contorno del terreno dal cielo. Riflette più impulsi laser fuori dagli oggetti che circondano l’auto e misura la distanza e il tempo che ogni impulso ha percorso.

Da queste misurazioni, il sistema LIDAR può fornire informazioni accurate sull’altezza e la distanza degli oggetti.

Mentre questo sistema sta facendo grandi passi avanti nella creazione di un’auto completamente senza conducente, ha un costo pesante. Google ha utilizzato il sensore LiDAR a 64 canali di Velodyne , che ha un prezzo di circa 80.000 $.

Questa potrebbe essere una delle ragioni per cui Elon Musk si rifiuta di usare la tecnologia LIDAR nei sistemi Autopilot di Tesla.

L’uso di Tesla di sensori ottici e RADAR

Musk crede che i sensori ottici passivi e un sistema RADAR possano realizzare la stessa funzione del sistema LIDAR di Google.

Veicoli Tesla dotati di 12 sensori ultrasonici a lungo raggio che offrono una visione a 360 gradi intorno al veicolo. Inoltre, ogni veicolo ha un sistema RADAR rivolto in avanti. L’integrazione di questi componenti aiuta a potenziare il sistema di pilota automatico di Tesla.

Come un sistema LIDAR, un sistema RADAR invia segnali, ma sotto forma di onde radio periodiche che rimbalzano sugli oggetti nelle vicinanze delle macchine. Una volta che colpiscono un oggetto tornano indietro, misurando il tempo impiegato dalle onde radio per viaggiare verso e dall’oggetto si conosce la distanza.

Il vantaggio delle onde radio è che possono essere trasmesse attraverso la pioggia, la neve, la nebbia e persino la polvere.

Strumenti diversi per compiti diversi

Mentre Elon Musk ha fatto alcuni commenti audaci sui metodi di Google, la maggior parte delle persone non si rende conto che stanno lavorando su due impieghi completamente diversi. Google sta utilizzando il LIDAR a 64 canali (64 raggi) di Velodyte per posizionarsi con una precisione di 10 cm su una mappa preesistente. Google sta inoltre utilizzando il sistema LIDAR non solo per creare un modello a 360 gradi dei dintorni dell’auto, ma anche per prevedere i movimenti di pedoni e veicoli nelle vicinanze.

D’altra parte, il sistema autopilota di Tesla utilizza telecamere frontali prodotte da ( Mobileye ).

Queste telecamere sono in grado di rilevare con precisione la posizione e la curvatura dei marcatori di corsia autostradale che aiutano a mantenere il veicolo nella sua corsia e a effettuare cambi di corsia di base.

Mentre la tecnologia di ciascuna azienda è eccezionale, ognuna lavora a risultati diversi. Il sistema autopilota di Tesla è economico e si rivelerà utile per l’obiettivo iniziale di Elon Musk: automatizzare il 90% della guida entro un paio di anni. Tuttavia, l’altro 10% degli scenari di guida è piuttosto difficile da implementare.

Google ha iniziato a lavorare per lo stesso obiettivo già da tempo e si concentra ora su qualcosa di diverso: un’auto completamente autonoma che eliminerà completamente qualsiasi errore umano.

È però un sistema costoso che alla fine dovrà essere modificato se Google vuole renderlo accessibile ai consumatori. Tuttavia, Google sta lavorando per eliminare la necessità di guidare una macchina mentre Tesla sta lavorando per provvedere all’eliminazione di parte della guida giornaliera che dobbiamo fare. Da quella prospettiva, LIDAR potrebbe essere la scelta giusta, dopo tutto.

LiDAR allo stato solido

Negli ultimi anni c’è stata una vera rivoluzione in LiDAR. In gran parte, ciò è stato stimolato dal boom sempre crescente di veicoli autonomi, in cui LiDAR è sempre più utilizzato come metodo per rilevare gli ostacoli. C’è stato anche un conseguente calo di prezzo, rendendolo più accessibile a una vasta gamma di designer.Il prossimo passo nell’evoluzione di LiDAR è, secondo alcuni, l’utilizzo di LiDAR allo stato solido.

Il problema con i sensori LiDAR rotanti

La maggior parte della tecnologia LiDAR di generazione corrente rimbalza un laser ad impulsi da uno specchio rotante a oggetti distanti e quindi registra il tempo di ritorno dell’impulso riflesso. Questa tecnica offre una copertura completa a 360 ° di un’area.

Con molte parti mobili di alta precisione, questi LiDAR meccanici sono costosi, sensibili alle vibrazioni e difficili da miniaturizzare. Inoltre, se montato in modo non appariscente sul davanti di un’auto (piuttosto che in alto, come per i test attuali), il corpo dell’auto eliminerebbe fino al 50% del campo visivo del LiDAR.

Per incorporare completamente un’unità in un’automobile, le case automobilistiche necessitano di un’opzione più economica e robusta.

Un modo per affrontare questo problema è quello di incorporare più sensori meno costosi. Molte aziende stanno ora ricercando e sviluppando LiDAR allo stato solido che sono robusti e poco costosi. Sebbene abbiano un campo visivo limitato, i loro prezzi bassi consentono ai produttori di veicoli di integrare più unità in un’automobile per una frazione del costo di un singolo LiDAR rotante.

Metodi di implementazione del LiDAR allo stato solido

I LiDAR allo stato solido utilizzano un sistema, un rilevatore e talvolta un MEMS ( https://it.wikipedia.org/wiki/MEMS ) montato in un alloggiamento non rotante per illuminare una scena con luce laser pulsata e registrare gli impulsi riflessi. Esistono diversi modi per eseguire questa operazione:

Scansione a matrice incrociata

Con questo metodo, la luce laser viene pulsata sequenzialmente da una matrice verticale, mentre viene rilevata sequenzialmente da una matrice orizzontale. Questa configurazione incrociata produce una risoluzione che è il prodotto del numero di emettitori laser e del numero di rivelatori di fotodiodi. L’hardware tiene traccia della posizione del laser, della posizione del rilevatore e del tempo in cui la luce torna a generare una nuvola di punti tridimensionale dell’ambiente.

LiDAR allo stato solido basato su MEMS

Con una soluzione basata su MEMS, un singolo impulso laser potente viene utilizzato insieme a uno specchio per creare lo stesso effetto del laser array mostrato sopra. Man mano che lo specchio viene manipolato per creare un impulso laser di scansione, un array di sensori rileva la luce riflessa e genera la nuvola di punti tridimensionale dell’ambiente.

InnovizPro

L’azienda israeliana Innoviz ha un LiDAR allo stato solido chiamato InnovizPro che è possibile acquistare e posizionare immediatamente sulla propria auto. È basato sulla tecnologia MEMS e ha un prezzo previsto di qualche migliaio di dollari.

Il loro prossimo InnovizOne , un LiDAR di livello automobilistico, dovrebbe essere disponibile nel 2019 per poche centinaia di dollari. Un comunicato stampa Innoviz pubblicato per la prima volta al CES a gennaio ha dichiarato che i clienti con volumi elevati potevano averli con prezzi a partire da $ 100 per unità.

Quando intervistato via email, Omer Keilaf, CEO e co-fondatore di Innoviz, ha dichiarato che il loro LiDAR “è progettato per fornire un output estremamente ricco e ad alta densità sotto forma di una nuvola di punti ad alta risoluzione, consentendo di estrapolare oggetti avanzati capacità di rilevamento con un’intensità di dati estremamente elevata, il LiDAR di Innoviz è in grado di creare ulteriori livelli di informazioni e offrire così livelli superiori di rilevamento, classificazione e tracciatura degli oggetti.

Innoviz fornisce una soluzione stack software completa che include il rilevamento di oggetti, la classificazione e il tracciamento. La classificazione e il tracciamento degli oggetti sono particolarmente importanti per le applicazioni automobilistiche in cui un ambiente in evoluzione pone serie minacce alla sicurezza dei pedoni e dei conducenti.

LeddarVu di LeddarTech.

https://leddartech.com/ ha anche soluzioni LiDAR allo stato solido progettate per essere collocate in più punti di un’automobile per fornire una copertura completa.

La piattaforma LeddarVu utilizza “algoritmi di segnale brevettati” per creare sensori LiDAR allo stato solido con versatilità.

L’implementazione del software LeddarTech consente anche il rilevamento e la classificazione degli oggetti.

Quanergy’s S3

Quanergy afferma di avere “il primo sensore LiDAR a stato solido accessibile al mondo” nel suo modello S3, che è stato presentato nel lontano gennaio 2016. Mentre i moduli LiDAR originali di mezzo decennio fa costano in genere decine di migliaia di dollari, il Il prezzo di S3 è stato inizialmente annunciato per $ 250.

L’S3 può stare nel palmo di una mano e i suoi laser hanno un arco di 120 °. Quanergy sottolinea il fatto che l’S3 non ha parti mobili che affermano miglioreranno l’affidabilità. Questo è solo uno dei molti modi in cui aziende come Quanergy sperano di agevolare la progettazione e l’implementazione LiDAR nell’industria automobilistica, che richiede elevati livelli di affidabilità per motivi di sicurezza.

MapLite consente la navigazione con solo GPS e sensori

La recente fatalità di Uber sottolinea il fatto che la tecnologia non è ancora pronta per un’adozione diffusa. Aziende come Google testano solo le loro flotte nelle principali città in cui hanno trascorso innumerevoli ore etichettando meticolosamente le esatte posizioni 3D di corsie, cordoli, rampe e segnali di stop.
In effetti, se si viaggia lungo strade che non sono asfaltate, o segnate in modo inaffidabile, esiste un problema. Un modo per aggirare questo è creare sistemi abbastanza avanzati da navigare senza queste mappe. In un primo passo importante, un team del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ha sviluppato MapLite, un nuovo framework che consente alle auto senza conducente di guidare su strade mai usate prima senza mappe 3D.

MapLite combina semplici dati GPS che potresti trovare su Google Maps con una serie di sensori che osservano le condizioni della strada. In tandem, questi due elementi hanno permesso al team di guidare autonomamente su più strade di campagna non asfaltate a Devens, in Massachusetts, e di rilevare in modo affidabile la strada con più di 30 metri di anticipo. (Come parte di una collaborazione con il Toyota Research Institute, i ricercatori hanno utilizzato una Toyota Prius che hanno equipaggiato con una gamma di sensori LIDAR e IMU.)

Come funziona

I sistemi esistenti fanno ancora molto affidamento sulle mappe, usando solo sensori e algoritmi di visione per evitare oggetti dinamici come pedoni e altre auto.

Al contrario, MapLite utilizza sensori per tutti gli aspetti della navigazione, basandosi solo sui dati GPS per ottenere una stima approssimativa della posizione dell’auto. Il sistema prima imposta sia una destinazione finale che ciò che i ricercatori chiamano un “obiettivo di navigazione locale”, che deve essere in vista della macchina. I suoi sensori di percezione generano quindi un percorso per arrivare a quel punto, usando LIDAR per stimare la posizione dei bordi della strada. MapLite può farlo senza indicazioni stradali fisiche facendo delle ipotesi di base su come la strada sarà relativamente più piatta rispetto alle aree circostanti.

Il team ha sviluppato un sistema di modelli “parametrizzati”, il che significa che descrivono più situazioni che sono in qualche modo simili. Ad esempio, un modello potrebbe essere sufficientemente ampio per determinare cosa fare alle intersezioni o cosa fare su un tipo specifico di strada.

MapLite si distingue dagli altri approcci di guida senza mappa che si basano maggiormente sull’apprendimento automatico, allenandosi sui dati di una serie di strade e poi testati su altri.

MapLite è ancora limitato. Non è ancora abbastanza affidabile per le strade di montagna, dal momento che non tiene conto di cambiamenti radicali di elevazione. Come passo successivo, il team spera di espandere la varietà di strade che il veicolo può gestire. Alla fine aspirano a far raggiungere al loro sistema livelli comparabili di prestazioni e affidabilità dei sistemi mappati, ma con una gamma molto più ampia.

Come le auto ad autopilota e gli umani affrontano i rischi di collisione

Nel 1938, quando c’erano circa un decimo delle automobili di oggi, un geniale psicologo e un ingegnere unirono le forze per scrivere una delle opere più influenti mai pubblicate sulla guida. L’uccisione di un pedone in Arizona da parte di un’auto a guida autonoma mette in evidenza come il loro lavoro sia ancora attuale oggi, in particolare per quanto riguarda la sicurezza dei veicoli autonomi. James Gibson, lo psicologo in questione, e l’ingegnere Laurence Crooks, valutarono il controllo di un veicolo da parte di un guidatore in due modi. Il primo era misurare la cosiddetta “zona di arresto minima”, la distanza che occorrerebbe per fermarsi dopo che il conducente ha pigiato i freni. Il secondo era guardare la percezione psicologica del guidatore dei possibili pericoli intorno al veicolo, che chiamavano il “campo del viaggio sicuro”. Se qualcuno guidava in modo che tutti i potenziali pericoli fossero al di fuori dell’intervallo necessario per fermare l’auto, quella persona stava guidando in sicurezza (detta così sembra a mio parere la scoperta dell’acqua calda).

Tuttavia, questo campo di viaggio sicuro non è lo stesso per le auto senza conducente. Esse percepiscono il mondo circostante usando laser, radar, GPS e altri sensori, oltre alle loro telecamere di bordo. Quindi le loro percezioni possono essere molto diverse da quelle presentate agli occhi umani. Allo stesso tempo, i loro tempi di risposta attivi possono essere molto più veloci o talvolta anche eccessivamente lenti, nei casi in cui richiedono un intervento umano. Per me è chiaro che se le persone e le macchine guidano solo in base alle loro rispettive e significativamente diverse capacità percettive e di risposta, i conflitti e le collisioni saranno quasi inevitabili. Per condividere la strada in sicurezza, ciascuna parte avrà bisogno di capire l’altra molto più intimamente di quanto faccia ora.

Interazione di movimento e vista

Per i guidatori umani, la visione è l’input fondamentale. Ma ciò che i guidatori vedono dipende da come si muove la macchina: frenare, accelerare e sterzare cambiano la posizione della macchina e quindi la vista del guidatore. Gibson capì che questa reciproca interdipendenza tra percezione e azione significava che di fronte a una situazione particolare sulla strada, le persone si aspettavano che gli altri si comportino in modi specifici. Per esempio, una persona che guarda un’auto arrivare a un segnale di stop si aspetta che il conducente fermi la macchina; si accerti del traffico in arrivo, di pedoni, di ciclisti e altri ostacoli in genere; e riprendere la marcia solo quando la via è libera.

https://youtu.be/6QCF8tVqM3I

Un sistema di autopilota di Tesla sterza direttamente per una barricata.

Esiste chiaramente un segnale di stop per i conducenti umani. Dà loro la possibilità di guardarsi attorno attentamente senza essere distratti da altri aspetti della guida. Un veicolo autonomo può scansionare l’intero ambiente in una frazione di secondo. Non deve necessariamente fermarsi o anche rallentare per navigare in sicurezza nell’incrocio. Ma un’auto autonoma che attraversa un segnale di stop senza nemmeno fermarsi sarà vista come pericolosa per gli esseri umani vicini, essi presumono che le regole umane si applichino ancora.

Ecco un altro esempio: pensa alle auto che si immettono da una strada secondaria in una strada trafficata. Le persone sanno che il contatto visivo con un altro conducente può essere un metodo efficace per comunicare tra loro. In una sezione divisa, un guidatore può chiedere il permesso di entrare e l’altro conducente si comporterà in maniera da agevolare l’operazione. Come dovrebbero esattamente le persone avere questa interazione con un’auto a guida autonoma? È qualcosa che deve ancora essere stabilito.

Pedoni, ciclisti, motociclisti, conducenti di auto e camionisti sono tutti in grado di capire cosa possono fare gli altri conducenti umani e di esprimere le proprie intenzioni a un’altra persona in modo appropriato.

Un veicolo automatico è un’altra cosa. Saprà poco o niente del “posso immettermi?” “sì, OK” tipi di interazione informale di ogni giorno. Poiché pochi algoritmi sono in grado di comprendere queste implicite ipotesi umane, si comportano diversamente da come si aspettano le persone. Alcune di queste differenze potrebbero sembrare sottili – ma alcune trasgressioni, come il non rispetto del segnale di stop, potrebbero causare lesioni o addirittura la morte.

Inoltre, le auto senza conducente possono essere effettivamente accecate se i loro vari sistemi sensoriali si bloccano, si guastano o forniscono informazioni contraddittorie. Nel crash fatale del 2016 di un Tesla in modalità “Pilota automatico”, per esempio, parte del problema potrebbe essere stato un conflitto tra alcuni sensori che avrebbero dovuto rilevare un rimorchio dall’altra parte della strada e altri che probabilmente non l’avevano fatto perché era retroilluminato o troppo alto da terra.

Come con tutte le nuove tecnologie, ci saranno incidenti e problemi. Ma questo tipo di problema non è unico per le auto a guida autonoma. Piuttosto, è forse inerente a qualsiasi situazione in cui gli esseri umani e i sistemi automatizzati condividono lo spazio.

Sviluppi e ricerca

Manco a farlo apposta questa mattina mi è arrivata via mail la pubblicità da una nota casa produttrice di semiconduttori di un driver per mosfet ad altissima velocità concepito espressamente per i LiDAR

Conclusione

Le unità LiDAR economiche e allo stato solido sono ora sul mercato di diversi produttori. Con il passare del tempo, i loro costi continueranno a diminuire e le loro capacità continueranno a migliorare.

Quanto tempo ci vorrà prima che questa tecnologia venga modificata per l’uso domestico? Dalle sedie a rotelle elettriche e droni alle motociclette e altre piattaforme mobili, ci sono un sacco di applicazioni, oltre alle auto autonome, che potrebbero trarre beneficio dalla consapevolezza e dalla mappatura ambientale.

Francamente al momento credo che l’unico limite al rapido sviluppo sia dato dagli incidenti avvenuti ultimamente con questo tipo di veicoli, la colpa dei quali da imputare ad una tecnologia troppo giovane e principalmente a software non ancora all’altezza di prendere decisioni rapide ed efficaci, come il cambio di corsia per evitare una collisione imminente.

Insomma tocca solo sperare nell’evoluzione dell’intelligenza artificiale anche se questo francamente un po mi spaventa.

VOTO
0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento