Ho imparato a conoscere la regressione del processo gaussiano da video online e appunti delle lezioni, la mia comprensione è che se abbiamo un set di dati con punti allora assumiamo che i dati siano campionati da un gaussiano multivariato dimensionale. Quindi la mia domanda è nel caso in cui è di 10 milioni di milioni la regressione del processo gaussiana funziona ancora? La matrice del kernel non sarà enorme, rendendo il processo completamente inefficiente? In tal caso, esistono tecniche in atto per affrontarlo, come il campionamento dal set di dati più volte? Quali sono alcuni buoni metodi per affrontare tali casi?