随便打开一个project,pycharm右上角“run”三角形的左边有一个edit configurition,打开它。

 设置configurition---Environment--- Environment variables ---点击“...”,出现框框,点击+,

输入两个name,

一个是SPARK_HOME  =  D:/spark-2.1.1-bin-hadoop2.7

一个是PYTHONPATH  =  D:/spark-2.1.1-bin-hadoop2.7/python设置好了保存。

windows环境安装spark,无法导入pyspark模块

setting中project structure中点击右边的“add  content root”,添加py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark中的python文件夹下)

windows环境安装spark,无法导入pyspark模块

7 完成,from pyspark import SparkContext,红线消失,运行正常。

相关文章:

  • 2021-06-27
  • 2021-12-19
  • 2021-11-05
  • 2021-12-26
  • 2021-12-26
  • 2021-05-02
  • 2022-01-03
猜你喜欢
  • 2021-08-09
  • 2021-06-20
  • 2021-10-20
  • 2021-06-13
  • 2021-12-22
  • 2022-12-23
  • 2021-04-12
相关资源
相似解决方案