Con Hadoop 2.0 e YARN Hadoop presumibilmente non è più legato solo a soluzioni di riduzione delle mappe. Con questo progresso, quali sono i casi d'uso di Apache Spark vs Hadoop considerando entrambi in cima a HDFS? Ho letto la documentazione introduttiva di Spark, ma sono curioso di sapere se qualcuno ha riscontrato un problema più efficiente e più facile da risolvere con Spark rispetto a Hadoop.