Sia PyTorch che Tensorflow Fold sono framework di apprendimento profondo intesi a gestire situazioni in cui i dati di input hanno lunghezza o dimensioni non uniformi (ovvero situazioni in cui i grafici dinamici sono utili o necessari).
Mi piacerebbe sapere come si confrontano, nel senso di paradigmi su cui si basano (ad esempio il batch dinamico) e le loro implicazioni, cose che non possono / non possono essere implementate in ognuna, debolezze / punti di forza, ecc.
Ho intenzione di utilizzare queste informazioni per sceglierne una per iniziare a esplorare i grafici di calcolo dinamico, ma non ho in mente alcun compito specifico.
Nota 1: anche altri framework di grafici di calcolo dinamico come DyNet o Chainer sono i benvenuti nel confronto, ma mi piacerebbe concentrarmi su PyTorch e Tensorflow Fold perché penso che siano / saranno i più utilizzati.
Nota 2: Ho trovato questo thread di hackernews su PyTorch con alcune informazioni sparse, ma non molto.
Nota 3: un altro thread pertinente di hackernews , su Tensorflow Fold, che contiene alcune informazioni sul loro confronto.
Nota 4: thread Reddit rilevante .
Nota 5: bug rilevante nel github di Tensorflow Fold che identifica una limitazione importante: l'impossibilità di eseguire la ramificazione condizionale durante la valutazione.
Nota 6: discussione sul forum Pytorch sugli input di lunghezza variabile in relazione agli algoritmi utilizzati (ad es. Batch dinamico).