Risposte:
Come ho trovato in Introduzione al data mining di Tan et. al:
Gli studi hanno dimostrato che la scelta della misura di impurità ha scarso effetto sulle prestazioni degli algoritmi di induzione dell'albero decisionale. Questo perché molte misure di impurità sono abbastanza coerenti tra loro [...]. In effetti, la strategia utilizzata per potare l'albero ha un impatto maggiore sull'albero finale rispetto alla scelta della misura di impurità.
Pertanto, puoi scegliere di utilizzare l'indice Gini come CART o Entropy come C4.5.
Vorrei usare Entropy, più specificamente il rapporto di guadagno di C4.5 perché puoi facilmente seguire il libro ben scritto di Quinlan: Programmi C4.5 per l'apprendimento automatico.