little-horse

记录一下版本问题:

spark与scala版本对应问题:

1.官网会给出,如下,spark2.3.1默认需要scala2.11版本

2.在maven依赖网中也可以看到,如下

 

3.关于idea开发版本中也可以看到所需要依赖的scala版本

通常在file->project structure->global libraries 右侧,点击加号将scala sdk加入后,最右侧有个下拉框,可以看到此idea支持的一些scala版本号

如果通过加入的scala sdk版本超出idea所需要的scala版本会无法使用

 

4.可以不通过上面的方式加入scala sdk,可以通过pom形式加入所需scala依赖项,也可以开发spark和scala程序

分类:

技术点:

相关文章:

  • 2022-01-08
  • 2021-09-05
  • 2021-10-01
  • 2021-11-22
  • 2021-12-18
  • 2021-08-15
  • 2021-04-20
  • 2021-09-07
猜你喜欢
  • 2021-08-15
  • 2021-04-17
  • 2021-11-30
  • 2021-09-21
  • 2021-08-15
  • 2021-11-22
  • 2021-12-21
相关资源
相似解决方案