step 1:将$HIVE_HOME/conf/hive-site.xml拷贝到$SPARK_HOME/conf目录下

step 2:spark-shell模式:./spark-shell --master local[2] --jars ../jars/mysql-connector-java-5.1.49.jar

Spark访问Hive的表

step3:spark-sql模式:./spark-sql --master local[2] --jars ../jars/mysql-connector-java-5.1.49.jar --driver-class-path ../jars/mysql-connector-java-5.1.49.jar

注意:spark-sql模式比spark-shell模式多一个driver-class-path参数,但也可以不用,测试两者都通过了

Spark访问Hive的表

相关文章: