标签:hdfs name data DDL Hive table 操作 tb col
建表
基本语法
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 分区
[CLUSTERED BY (col_name, col_name, ...) 分桶
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format] row format delimited fields terminated by “分隔符”
[STORED AS file_format]
[LOCATION hdfs_path]
drop table tb_test01;
create table external'tb_test01'(
id int,
name string,
age int,
gender string
)
row format delimited fields terminated by ':'
location 'hdfs://linux01:8020/data/log';
hive中表的分类
在hive中表分两种
1:external 外部表 :外部表是让表和数据发生一个映射关系,删除这个表的时候数据没有影响;;使用场景:一些原始数据,公共数据使用外部表
2: 管理表 (内部表):表和数据有强关联关系,当删除这个表时路径下的数据也会随之消失 使用场景:和业务有关的业务报表
查看表的详细信息
desc formatted 'tb_user'
管理表的位置
管理表不需要指定目录,它会直接在默认位置创建,会以表名称为存储数据的文件夹
Hive导入数据
- 建表的时候指定location>>结构化数据的文件夹
- 可以直接将结构化数据put到表目录中 如果结构化数据文件在hdfs中可以直接mv过去文件到输出路径下
- 使用load语法
1)下载数据从本地的指定路径下上传到指定表中---->(底层是put)
load data local inpath '/opt/doit19/user2.csv' into table tb_user;
2)下载数据从hdfs的指定路径下上传到指定表中---->(底层是mv原hdfs中的文件会被删除)
load data inpath '/user3.csv' into table tb_user;
3)将hdfs中的结构化数据文件覆盖写到指定表中 (追加底层是mv)
load data inpath '/user2.csv' overwrite into table tb_user;
标签:hdfs,name,data,DDL,Hive,table,操作,tb,col 来源: https://blog.csdn.net/weixin_46011754/article/details/110293333
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。