Questi sono i miei dati di allenamento: 200.000 esempi x 10.000 funzioni. Quindi la mia matrice di dati di allenamento è - 200.000 x 10.000.
Sono riuscito a salvarlo in un file flat senza problemi di memoria salvando ogni set di dati uno per uno (un esempio dopo l'altro) mentre generi le funzionalità per ciascun esempio.
Ma ora che uso Milk , SVM light o qualsiasi altro algoritmo di Machine Learning, tutto prova a caricare tutti i dati di allenamento in memoria invece di allenarli uno per uno. Tuttavia ho solo 8 GB di RAM, quindi non posso procedere in questo modo.
Sai comunque che potrei addestrare l'algoritmo un set di dati per un set di dati? Cioè, in modo che in qualsiasi istante ho solo un set di dati caricato in memoria, durante l'allenamento.