Rumah > Artikel > pangkalan data > 利用sqoop 将 hive/hdfs数据 导入 Oracle中
首先我们要安装好sqoop 笔者我用的是sqoop1 其次我们需要ojdbc6.jar 这个jar 包下载地址如下: http://www.oracle.com/technetwork/database/enterprise-edition/jdbc-112010-090769.html 将解压的包 复制到sqoop安装目录下的lib 目录中 最后执行我们的导入
首先我们要安装好sqoop
笔者我用的是sqoop1
其次我们需要ojdbc6.jar 这个jar 包下载地址如下:
http://www.oracle.com/technetwork/database/enterprise-edition/jdbc-112010-090769.html
将解压的包 复制到sqoop安装目录下的lib 目录中
最后执行我们的导入命令即可
sqoop export --table FDC_JPLP --connect jdbc:oracle:thin:@localhost:port:test1 --username test --password test --export-dir /user/hive/warehouse/data_w.db/seq_fdc_jplp --columns goal_ocityid,goal_issueid,compete_issueid,ncompete_rank --input-fields-terminated-by '\001' --input-lines-terminated-by '\n'
注意要指定 –columns 参数 否则会报错 找不到 columns
用法: –columns
查询数据是否导入成功
? sqoop eval --connect jdbc:oracle:thin:@localhost:port:test1 --query "select * from FDC_JPLP" --username fccsreport --password fccsoracle10g_report
当然你也可以使用Oracle相关的管理工具查看。
说明:做数据导入 导出操作的时候请注意 两边表字段类型尽量要保持一致 否则会出现数据类型转化错误
原文地址:利用sqoop 将 hive/hdfs数据 导入 Oracle中, 感谢原作者分享。