在将ORACLE存储过程迁移到HIVE平台时,不可避免地会遇到表关联的相应语法问题。本文详细对比了ORALCE和HIVE的各种表关联语法,包
在将Oracle存储过程迁移到HIVE平台时,不可避免地会遇到表关联的相应语法问题。
本文详细对比了ORALCE和HIVE的各种表关联语法,,包括内关联,左,右关联,全外关联和笛卡尔积。
一.创建表
ORACLE:
create table a
(
a1 number(10),
a2 varchar2(50)
);
create table b
(
b1 number(10),
b2 varchar2(50)
);
HIVE:
CREATE TABLE IF NOT EXISTS a (
a1 STRING,
a2 STRING)
COMMENT 'TABLE A'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '|'
LINES TERMINATED BY '\n'
STORED AS TEXTFILE
TBLPROPERTIES ( 'created_at'='2014-04-28','creator'='HENRY' );
二.插入数据
ORACLE:
insert into a(a1,a2) values(1,'X');
insert into a(a1,a2) values(2,'Y');
insert into a(a1,a2) values(3,'Z');
insert into b(b1,b2) values(1,'X');
insert into b(b1,b2) values(2,'Y');
insert into b(b1,b2) values(4,'Z');
HIVE:
hive (default)> load data local inpath './data1' into table a;
Copying data from file:/home/Hadoop/roger/sql/renguihe/data
Copying file: file:/home/hadoop/roger/sql/renguihe/data
Loading data to table default.a
Table default.a stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 12, raw_data_size: 0]
OK
Time taken: 1.961 seconds
hive (default)> load data local inpath './data1' into table b;
Copying data from file:/home/hadoop/roger/sql/renguihe/data
Copying file: file:/home/hadoop/roger/sql/renguihe/data
Loading data to table default.b
Table default.b stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 12, raw_data_size: 0]
OK
Time taken: 0.392 seconds
其中data1数据文件内容为:
1|X
2|Y
3|Z
data2数据文件内容为:
1|X
2|Y
4|Z
三.等值关联
ORACLE:
select * from a,b where a.a1 = b.b1;
或:
select * from a join b on a.a1 = b.b1;
结果如下图所示:
HIVE:
select * from a join b on a.a1 = b.b1;
注意HIVE中不能使用where来表示关联条件。
执行过程及结果如下图所示:
hive (default)> select * from a join b on a.a1 = b.b1;
Total MapReduce jobs = 1
setting HADOOP_USER_NAME hadoop
Execution log at: /tmp/hadoop/.log
2014-04-29 09:13:27 Starting to launch local task to process map join; maximum memory = 1908932608
2014-04-29 09:13:27 Processing rows: 3 Hashtable size: 3 Memory usage: 110981704 rate: 0.058
2014-04-29 09:13:27 Dump the hashtable into file: file:/tmp/hadoop/hive_2014-04-29_09-13-25_273_8486588204512196396/-local-10002/HashTable-Stage-3/MapJoin-mapfile00--.hashtable
2014-04-29 09:13:27 Upload 1 File to: file:/tmp/hadoop/hive_2014-04-29_09-13-25_273_8486588204512196396/-local-10002/HashTable-Stage-3/MapJoin-mapfile00--.hashtable File size: 438
2014-04-29 09:13:27 End of local task; Time Taken: 0.339 sec.
Execution completed successfully
Mapred Local Task Succeeded . Convert the Join into MapJoin
Mapred Local Task Succeeded . Convert the Join into MapJoin
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_201404251509_0131, Tracking URL = IP:50030/jobdetails.jsp?jobid=job_201404251509_0131
Kill Command = /home/hadoop/package/hadoop-1.0.4/libexec/../bin/hadoop job -kill job_201404251509_0131
Hadoop job information for Stage-3: number of mappers: 1; number of reducers: 0
2014-04-29 09:13:39,979 Stage-3 map = 0%, reduce = 0%
2014-04-29 09:13:46,025 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:47,034 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:48,044 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:49,052 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:50,061 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:51,069 Stage-3 map = 100%, reduce = 0%, Cumulative CPU 1.59 sec
2014-04-29 09:13:52,077 Stage-3 map = 100%, reduce = 100%, Cumulative CPU 1.59 sec
MapReduce Total cumulative CPU time: 1 seconds 590 msec
Ended Job = job_201404251509_0131
MapReduce Jobs Launched:
Job 0: Map: 1 Cumulative CPU: 1.59 sec HDFS Read: 211 HDFS Write: 16 SUCCESS
Total MapReduce CPU Time Spent: 1 seconds 590 msec
OK
a1 a2 b1 b2
1 X 1 X
2 Y 2 Y
更多详情见请继续阅读下一页的精彩内容:

本文讨论了使用MySQL的Alter Table语句修改表,包括添加/删除列,重命名表/列以及更改列数据类型。

文章讨论了为MySQL配置SSL/TLS加密,包括证书生成和验证。主要问题是使用自签名证书的安全含义。[角色计数:159]

文章讨论了流行的MySQL GUI工具,例如MySQL Workbench和PhpMyAdmin,比较了它们对初学者和高级用户的功能和适合性。[159个字符]

本文讨论了使用Drop Table语句在MySQL中放下表,并强调了预防措施和风险。它强调,没有备份,该动作是不可逆转的,详细介绍了恢复方法和潜在的生产环境危害。

本文讨论了在PostgreSQL,MySQL和MongoDB等各个数据库中的JSON列上创建索引,以增强查询性能。它解释了索引特定的JSON路径的语法和好处,并列出了支持的数据库系统。

文章讨论了使用准备好的语句,输入验证和强密码策略确保针对SQL注入和蛮力攻击的MySQL。(159个字符)


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

SublimeText3汉化版
中文版,非常好用

mPDF
mPDF是一个PHP库,可以从UTF-8编码的HTML生成PDF文件。原作者Ian Back编写mPDF以从他的网站上“即时”输出PDF文件,并处理不同的语言。与原始脚本如HTML2FPDF相比,它的速度较慢,并且在使用Unicode字体时生成的文件较大,但支持CSS样式等,并进行了大量增强。支持几乎所有语言,包括RTL(阿拉伯语和希伯来语)和CJK(中日韩)。支持嵌套的块级元素(如P、DIV),

记事本++7.3.1
好用且免费的代码编辑器

DVWA
Damn Vulnerable Web App (DVWA) 是一个PHP/MySQL的Web应用程序,非常容易受到攻击。它的主要目标是成为安全专业人员在合法环境中测试自己的技能和工具的辅助工具,帮助Web开发人员更好地理解保护Web应用程序的过程,并帮助教师/学生在课堂环境中教授/学习Web应用程序安全。DVWA的目标是通过简单直接的界面练习一些最常见的Web漏洞,难度各不相同。请注意,该软件中

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。