Per le reti neurali abbiamo il teorema di approssimazione universale che afferma che le reti neurali possono approssimare qualsiasi funzione continua su un sottoinsieme compatto di .
Esiste un risultato simile per gli alberi con gradiente aumentato? Sembra ragionevole poiché puoi continuare ad aggiungere più rami, ma non riesco a trovare alcuna discussione formale sull'argomento.
EDIT: La mia domanda sembra molto simile a Gli alberi della regressione possono prevedere continuamente? , anche se forse non chiedere esattamente la stessa cosa. Ma vedi quella domanda per una discussione pertinente.