发现按照之前论坛文章来没有安装spark和hadoop。。
按照这篇博文来操作后,由于去下载的最新的spark和Hadoop,对于我的jdk来说跟不上
文章里的版本是jdk1.8.0_101,我是1.8.0_131,比他还新,所以尝试用文章中的spark和Hadoop版本
可以做一个对比

项目 文章
jdk 1.8.0_101 1.8.0_131
scala 2.10.6 2.10.6
spark 1.6.2 1.6.2
Hadoop 2.6.4 2.6.4

其中spark是pre-build的版本,即pre-build for Hadoop2.6,是编译好了可以直接用。如果下载spark源码的话需要自己手动编译。下载好直接解压到盘根目录下即可。同时,Hadoop也是下载的已编译好的版本。

安装完成后
spark第5天

接下来找个spark程序跑一下吧

相关文章:

  • 2021-07-03
  • 2021-08-10
  • 2022-01-25
  • 2021-08-03
  • 2022-12-23
  • 2022-02-06
  • 2021-11-07
猜你喜欢
  • 2021-10-20
  • 2021-05-15
  • 2021-09-01
  • 2022-01-05
  • 2021-10-03
  • 2021-12-16
  • 2021-05-18
相关资源
相似解决方案