idea中使用scala运行spark出现:

  

Exception in thread "main" java.lang.NoClassDefFoundError: scala/collection/GenTraversableOnce$class

 

查看build.sbt:

  

name := "ScalaSBT"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.6.1"

 

你需要确保 spark所使用的scala版本与你系统scala的版本一致

 

你也可以这样:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.1"

 

相关文章:

  • 2021-05-06
  • 2021-05-04
  • 2021-11-16
  • 2022-12-23
  • 2021-08-01
  • 2021-12-11
  • 2021-08-16
  • 2021-09-11
猜你喜欢
  • 2021-12-29
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-10
  • 2021-06-27
  • 2021-12-26
相关资源
相似解决方案