设为首页 收藏本站
查看: 1023|回复: 0

[经验分享] hive 文件系统学习实例

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-5-28 08:22:22 | 显示全部楼层 |阅读模式

Hive存储是基于hadoop hdfs文件系统的,通过默认内嵌的Derby 数据库或外部数据库系统(如mysql)组织元数据访问,下面就通过实际案例描述其存储过程。


1, 在hive 中创建表,然后把外部csv文件导入其中(外部文件为Batting.csv, 内部表为temp_batting):

hive>create table temp_batting(col_value STRING);

hive> show tables;
OK
temp_batting
...


hive>LOAD DATAINPATH'hive/data/Batting.csv' OVERWRITE INTO TABLE temp_batting;


2, 查看外部mysql数据库,可以看到新创建的temp_batting表:


mysql> use hive;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

mysql> select * from TBLS;
+--------+-------------+-------+------------------+-------+-----------+-------+--------------+----------------+--------------------+--------------------+
| TBL_ID | CREATE_TIME | DB_ID | LAST_ACCESS_TIME | OWNER | RETENTION | SD_ID |TBL_NAME     | TBL_TYPE       | VIEW_EXPANDED_TEXT |VIEW_ORIGINAL_TEXT |
+--------+-------------+-------+------------------+-------+-----------+-------+--------------+----------------+--------------------+----------
|     66 |  1432707070 |     1 |               0 | root  |        0 |    66 | temp_batting | MANAGED_TABLE  |NULL               | NULL              |
|               |
+--------+-------------+-------+------------------+-------+-----------+-------+--------------+----------------+--------------------+----------

...

查看其在hdfs上存储路径:


mysql> select * from SDS;
+-------+-------+--------------------------------------------------+---------------+---------------------------+--------------------------------------------------------+-------------+------------------------------------------------------------+----------+
| SD_ID | CD_ID | INPUT_FORMAT                                    |IS_COMPRESSED | IS_STOREDASSUBDIRECTORIES | LOCATION                                             | NUM_BUCKETS |OUTPUT_FORMAT                                            | SERDE_ID |
+-------+-------+--------------------------------------------------+---------------+---------------------------+--------------------------------
|    66 |    71 | org.apache.hadoop.mapred.TextInputFormat        |              |                          |hdfs://localhost:9000/user/hive/warehouse/temp_batting |         -1 |org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat |      66 |

可以看到是:
hdfs://localhost:9000/user/hive/warehouse/temp_batting


3,到hadoop 的hdfs文件系统中查看这个表路径:

[iyunv@lr rli]# hadoop dfs -ls /user/hive/warehouse
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
...

drwxr-xr-x   - root supergroup          02015-05-27 14:16 /user/hive/warehouse/temp_batting
...

[iyunv@lr rli]# hadoop dfs -ls/user/hive/warehouse/temp_batting

DEPRECATED: Use of this script to execute hdfs command isdeprecated.
Instead use the hdfs command for it.


Found 1 items
-rwxr-xr-x   1 root supergroup    6398990 2015-05-2714:02 /user/hive/warehouse/temp_batting/Batting.csv


可以看到其文件大小及内容。


结论:

Hive通过关联数据库系统记录文件的存储路径,属性等,实际数据存在hdfs系统中,当通过select等操作生成相应的map/reduce进程进一步数据分析处理。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-71309-1-1.html 上篇帖子: hive函数----集合统计函数 下篇帖子: devicemapper的多路径 源代码 记录 用户
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表