To jest kopia czyjegoś pytania na innym forum, na które nigdy nie udzielono odpowiedzi, więc pomyślałem, że zadam je tutaj ponownie, ponieważ mam ten sam problem. (Zobacz http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736 )
Mam poprawnie zainstalowanego Spark'a na moim komputerze i jestem w stanie uruchamiać programy w Pythonie z modułami pyspark bez błędów podczas używania ./bin/pyspark jako mojego interpretera Pythona.
Jednak gdy próbuję uruchomić zwykłą powłokę Pythona, kiedy próbuję zaimportować moduły pyspark, pojawia się ten błąd:
from pyspark import SparkContext
i mówi
"No module named pyspark".
Jak mogę to naprawić? Czy istnieje zmienna środowiskowa, którą muszę ustawić, aby wskazać Pythonowi nagłówki / biblioteki / itp.? Jeśli moja instalacja iskrowa to / spark /, które ścieżki pysparka muszę dołączyć? A może programy pyspark mogą być uruchamiane tylko z interpretera pyspark?