Questa è una copia della domanda di qualcun altro su un altro forum a cui non è mai stata data risposta, quindi ho pensato di chiederla nuovamente qui, poiché ho lo stesso problema. (Vedi http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736 )
Ho Spark installato correttamente sulla mia macchina e sono in grado di eseguire programmi python con i moduli pyspark senza errori quando utilizzo ./bin/pyspark come interprete Python.
Tuttavia, quando provo a eseguire la normale shell Python, quando provo a importare i moduli pyspark ottengo questo errore:
from pyspark import SparkContext
e dice
"No module named pyspark".
Come posso risolvere questo problema? C'è una variabile d'ambiente che devo impostare per puntare Python alle intestazioni / librerie / ecc. Di pyspark? Se la mia installazione Spark è / spark /, quali percorsi pyspark devo includere? Oppure i programmi pyspark possono essere eseguiti solo dall'interprete pyspark?