Domande taggate «apache-spark»

Apache Spark è un motore di elaborazione dati distribuito open source scritto in Scala che fornisce agli utenti un'API unificata e set di dati distribuiti. I casi d'uso di Apache Spark sono spesso correlati a machine / deep learning, elaborazione di grafici.


12
java.io.IOException: impossibile individuare l'eseguibile null \ bin \ winutils.exe nei binari di Hadoop. Spark Eclipse su Windows 7
Non sono in grado di eseguire un semplice sparklavoro in Scala IDE(progetto Maven spark) installato suWindows 7 È stata aggiunta la dipendenza core Spark. val conf = new SparkConf().setAppName("DemoDF").setMaster("local") val sc = new SparkContext(conf) val logData = sc.textFile("File.txt") logData.count() Errore: 16/02/26 18:29:33 INFO SparkContext: Created broadcast 0 from textFile at …



12
Errore di Spark-shell del Mac durante l'inizializzazione di SparkContext
Ho provato ad avviare spark 1.6.0 (spark-1.6.0-bin-hadoop2.4) su Mac OS Yosemite 10.10.5 utilizzando "./bin/spark-shell". Ha l'errore qui sotto. Ho anche provato a installare diverse versioni di Spark, ma tutte hanno lo stesso errore. Questa è la seconda volta che eseguo Spark. La mia corsa precedente funziona bene. log4j:WARN No appenders …


18
Come imposto la versione python del driver in Spark?
Sto usando spark 1.4.0-rc2 quindi posso usare python 3 con spark. Se aggiungo export PYSPARK_PYTHON=python3al mio file .bashrc, posso eseguire Spark in modo interattivo con Python 3. Tuttavia, se voglio eseguire un programma autonomo in modalità locale, ottengo un errore: Exception: Python in worker has different version 3.4 than that …

8
Perché i processi Spark non riescono con org.apache.spark.shuffle.MetadataFetchFailedException: manca un percorso di output per shuffle 0 in modalità speculazione?
Sto eseguendo un lavoro Spark con in modalità speculazione. Ho circa 500 attività e circa 500 file compressi da 1 GB gz. Continuo a ricevere in ogni lavoro, per 1-2 attività, l'errore allegato in cui viene ripetuto decine di volte in seguito (impedendo il completamento del lavoro). org.apache.spark.shuffle.MetadataFetchFailedException: manca una …







3
Come risolvere l'errore "TypeError: è necessario un numero intero (ottenuto i byte di tipo)" quando si tenta di eseguire pyspark dopo l'installazione di spark 2.4.4
Ho installato OpenJDK 13.0.1 e python 3.8 e spark 2.4.4. Le istruzioni per testare l'installazione devono essere eseguite. \ Bin \ pyspark dalla radice dell'installazione spark. Non sono sicuro di aver perso un passaggio nell'installazione di Spark, come l'impostazione di alcune variabili di ambiente, ma non riesco a trovare ulteriori …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.