使用DataGrip连接Hive的步骤
网上没找到合适的文章借鉴,所以自己写了一篇使用DataGrip连接hive 的博客,文章写得比较详细,如果你遇到了 Required field ‘client_protocol’ is unset 导致无法连接hive,那么请仔细往下看吧~~
1、左上角点+号,Data Source ——> Apache Hive
2、接下来填写基本信息,然后点击Test Connection,发现没有配置驱动
3、配置驱动,虽然DataGrip给我们提供了一些Driver,但是不一定和我们使用的hive版本一致,所以我们需要自定义JARS。自定义之前,可以先下载一个DataGrip提供的依赖,看看里面大概有哪些依赖
4、发现没有啥特别的东西,主要关注这个Jar。这个是提供的3.1.1版本对应的JDBC驱动,那么我们应该从什么地方获得呢?
5、很简单,进入你hive安装目录,去lib目录下面,发现确实有这么一个JAR
6、接下来,就是点击+号,选择Custom JARs,(提前在指定位置新建文件夹,把刚找到的jar放进去。DataGrip默认驱动保存路径:AppData\Roaming\JetBrains\DataGrip2020.2\jdbc-drivers\Hive),选中自定义的JARs,然后Apply
7、回到连接的地方,重新测试一下连接,发现还缺少hadoop相关的依赖,这个类在hadoop-common里面,找到这个依赖,如果没有可以自行下载一个,我这里maven本地仓库有,直接拿过来用了,用的是hadoop2.X。估计使用2.X版本都没什么问题
8、最后要添加的JARs如下图,就下图两个,其他都不需要了。
9、最后测试一下连接,没毛病了~