Il venerabile algoritmo teorico A * del percorso più breve e i successivi miglioramenti (ad es. Hierarchical Annotated A *) è chiaramente la tecnica di scelta per l'individuazione del percorso nello sviluppo del gioco.
Invece, mi sembra che RL sia un paradigma più naturale per spostare un personaggio in uno spazio di gioco.
Eppure non sono a conoscenza di uno sviluppatore di giochi singoli che ha implementato un motore di tracciamento basato sull'apprendimento di rinforzo. (Non deduco da ciò che l'applicazione di RL nel pathfinding sia 0, solo che è molto piccola rispetto ad A * e agli amici.)
Qualunque sia la ragione, non è perché questi sviluppatori non sono a conoscenza di RL, come dimostra il fatto che RL è spesso utilizzato altrove nel motore di gioco.
Questa domanda non è un pretesto per offrire un'opinione su RL nel pathfinding; infatti, presumo che la preferenza tacita per A * et al. su RL è corretto, ma quella preferenza non è ovviamente per me e sono molto curioso del motivo, in particolare da parte di chiunque abbia provato a utilizzare RL per l'individuazione dei percorsi.