Quindi sto leggendo la seconda edizione di "Introduzione all'apprendimento automatico" , di Bishop, et. tutti. A pagina 27 discutono della dimensione Vapnik-Chervonenkis che è,
"Il numero massimo di punti che possono essere frantumati da H [la classe di ipotesi] è chiamato Vapnik-Chervonenkis (VC) Dimensione di H, è indicato VC (H) e misura la capacità di H."
Considerando che "frantumi" indica un'ipotesi per un insieme di N punti di dati tale da separare gli esempi positivi da quelli negativi. In un tale esempio si dice che "H frantuma N punti".
Finora penso di capirlo. Tuttavia, gli autori mi perdono con il seguente:
"Ad esempio, quattro punti su una linea non possono essere frantumati da rettangoli."
Deve esserci un concetto qui che non capisco perfettamente, perché non riesco a capire perché sia così. Qualcuno può spiegarmi questo?