(Meta: non conosco un posto adatto per questo su Stack Exchange. Non sembra esserci alcun gruppo relativo alla tecnologia di guida autonoma e ai sistemi di visione / percezione 3D del computer.)
Per i veicoli a guida autonoma che utilizzano la percezione della profondità 3D LIDAR su un'autostrada con centinaia di altri veicoli che utilizzano anche altri scanner LIDAR a raggio di scansione o spot-field (stile kinect), come è in grado di distinguere i propri ritorni di segnale, dal fatto dagli altri sistemi?
Per un'autostrada multilaterale estremamente grande, o intersezioni multimodali complesse, tali emissioni possono essere viste in tutte le direzioni, coprendo tutte le superfici, e non c'è modo di evitare di rilevare le emissioni del raggio da altri scanner.
Questo sembra essere il principale ostacolo tecnico per l'implementazione di LIDAR per veicoli a guida autonoma. Non importa se funziona perfettamente se è l'unico veicolo sulla strada che utilizza LIDAR.
La vera domanda è come gestire l'inondazione di segnali spuri da sistemi simili in uno scenario futuro in cui LIDAR è presente su ogni veicolo, potenzialmente con scanner multipli per veicolo e scansione in tutte le direzioni intorno a ciascun veicolo.
È in grado di funzionare normalmente, può in qualche modo distinguere la propria scansione e respingere gli altri, o nel peggiore dei casi può fallire completamente e riportare semplicemente dati inutili sulla spazzatura e non sa che sta segnalando dati spazzatura?
Questo almeno sembra essere un caso forte per avere una visione computerizzata 3D passiva che si basa solo sulla luce naturale e sull'integrazione della profondità della videocamera stereo, come avviene nel cervello umano.