文章目录配置kettle版本:kettle-6.1.0.1_07270 修改kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\plugin.properties 将active.hadoop.configuration改为hive:
再进入kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\hadoop-configurations目录 创建一个文件夹叫hive(跟上面的配置一致即可): 将hive-site.xml配置文件放入hive目录中,并创建lib目录: 将hive和mysql的驱动jar包放入lib目录中: 好了,此时已经大功告成,可以测试了。 测试双击转换-》回到主对象树-》双击DB连接-》选择一般-》选择hadoop hive 2-》根据hive的实际情况填入连接信息,连接名称随便填: 点击测试,弹出如下界面表示成功: 点击右下角确认后,将刚才创建的hive拖入右侧: 点击获取sql查询语句可以顺利获取hive中的表: 点击预览后,顺利查看到hive表数据: |
|