很多情况下,我们在window平台下用spark shell来进行交互式开发和测试,当在使用sparksql时,比如如下命令:

val myDF = spark.sql("select * from mytable")

可能会遇到下面的问题:

 

 Window 10下spark shell使用sparksql 时的 “entry in command string: null ls -F C:\tmp\hive”问题解决

 

 

这是因为,spark在window平台读取hdfs时,需要hadoop的支持,因此需要先安装winutils.exe,winutils.exe不是hadoop的安装包组件,可以从下面地址下载:

winutils下载

 

下载完后,将相应版本的 winutils.exe拷贝到SPARK_HOME\bin目录,然后打开命令行窗口,执行下面命令更新目录权限:

更改目录权限
winutils chmod 777 c:\tmp\hive

查看目录权限
winutils ls c:\tmp\hive

 

重新开启spark-shell,执行sparksql语句,恢复正常

相关文章:

  • 2021-09-24
  • 2021-12-31
  • 2021-05-19
  • 2021-09-03
  • 2022-12-23
  • 2022-01-19
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2021-07-17
  • 2022-12-23
  • 2021-12-12
  • 2022-12-23
  • 2022-12-23
  • 2021-07-27
  • 2021-08-01
相关资源
相似解决方案