Durante la presentazione e il materiale di Summingbird da parte di Twitter, uno dei motivi menzionati per l'utilizzo dei cluster Storm e Hadoop insieme in Summingbird è che l'elaborazione attraverso Storm si traduce in una cascata di errori. Al fine di evitare questa cascata di errori e accumulo, il cluster Hadoop viene utilizzato per elaborare in batch i dati e scartare i risultati Storm dopo che gli stessi dati sono stati elaborati da Hadoop.
Quali sono i motivi alla base di questo accumulo di errori? e perché non è presente in Hadoop? Dal momento che non ho lavorato con Storm, non ne conosco i motivi. È perché Storm utilizza un algoritmo approssimativo per elaborare i dati al fine di elaborarli in tempo reale? o la causa è qualcos'altro?