Trino Iceberg connector + HMS + S3 初尝
wxin55 2024-11-16 01:39 7 浏览 0 评论
架构
- Trino iceberg connector:高效查询存储在 S3 上的 Iceberg 表数据,充分利用 Iceberg 的优化和功能。
- Hive Metastore:管理 Iceberg 表的元数据。
- Apache Iceberg:提供高效的表格式和数据管理机制,支持大规模数据集的高性能查询。
- AWS S3:作为存储层,存储 Iceberg 表的数据文件,提供持久性和高可用性。
环境
- Ubuntu 22.04.4 LTS
- JDK22
- MYSQL 8.0.37
- Hadoop 3.3.5
- Hive 3.1.3
- Trino 451
- Docker 26.1.4
- Amazon S3
本地部署 Hive Thrift Metastore (HMS)
下载 Hadoop[1]
# 解压
tar xvf hadoop-3.3.5.tar.gz
从 mvnrepository 下载 aws-java-sdk-s3-1.12.749.jar、aws-java-sdk-core-1.12.749.jar,、hadoop-aws-3.3.5.jar 放到 ${HADOOP_HOME}/share/hadoop/tools/lib/ 目录下。
下载 Hive[2]
# 解压
tar xvf apache-hive-3.1.3-bin.tar.gz
# 环境变量配置
sudo nano /etc/profile
# 在文件底部加入
export HIVE_HOME=/usr/local/src/apache-hive-3.1.3-bin
export PATH=$PATH:$HIVE_HOME/bin
# 刷新生效
source /etc/profile
# 验证
echo $HIVE_HOME
Thrift Metastore 是 Apache Hive 的一个核心组件,用于存储和管理 Hive 的元数据。作为一个独立的进程运行,Thrift Metastore 使用 Apache Thrift 作为 RPC框架来实现元数据的存取和管理,客户端通过 Thrift 接口与 Metastore 服务进行通信。Metastore 实际使用关系型数据库来存储元数据,Metastore 服务通过 JDBC 与数据库进行交互。
在这里笔者选用了 MYSQL 来存储元数据,操作如下:
# 下载对应版本的 MYSQL 驱动[3] 并放到 hive 的 /lib 目录下
/lib/mysql-connector-j-8.0.33.jar
# MYSQL
# 创建库
CREATE DATABASE hive_metastore;
# 创建用户与授权
CREATE USER 'hive'@'localhost' IDENTIFIED BY '<password>';
GRANT ALL PRIVILEGES ON hive_metastore.* TO 'hive'@'localhost';
创建或修改 ${HIVE_HOME}/conf/hive-site.xml 文件,配置如下:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive_metastore?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.cj.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>${your password}</value>
</property>
</configuration>
Thrift Metastore 虽然不需要依赖 Hadoop 相关服务即可独立运行,但其依赖于 Hadoop 提供的一些必要的 Jar ,如初始化 schema 的 schematool 依赖于 Hadoop 的类库。因此需要修创建或修改 ${HIVE_HOME}/conf/hive-env.sh,如下所示:
export HADOOP_HOME=/usr/local/src/hadoop-3.3.5
export HIVE_AUX_JARS_PATH=${HADOOP_HOME}/share/hadoop/tools/lib/aws-java-sdk-core-1.12.749.jar:${HADOOP_HOME}/share/hadoop/tools/lib/aws-java-sdk-s3-1.12.749.jar:${HADOOP_HOME}/share/hadoop/tools/lib/hadoop-aws-3.3.5.jar
export AWS_ACCESS_KEY_ID=xxxxxxxxxxxx
export AWS_SECRET_ACCESS_KEY=xxxxxxxxxx
运行初始化 schema 脚本,hive_metastore 库便会自动生成相关的表。
./bin/schematool -dbType mysql -initSchema
最后启动 Hive ThriftMetastore 服务。
# 启动
./bin/hive --service metastore &
# 验证
netstat -an | grep 9083
Docker 部署 Trino
笔者采用了 Docker 方式[4] 来部署 Trino。
# 拉取镜像
docker pull trinodb/trino
创建 iceberg.properties 配置如下,metastore[5] 指定为 hive_metastore。底层对象存储系统指定为 Amazon S3 [6][7] 。Trino iceberg connector[8] 支持多种存储系统包含对象存储,详情可参考文档[9]。
connector.name=iceberg
hive.metastore.uri=thrift://<metastore ip>:9083
iceberg.catalog.type=hive_metastore
iceberg.file-format=PARQUET
fs.hadoop.enabled=false
fs.native-s3.enabled=true
s3.region=xxxxxxxx
s3.aws-access-key=xxxxxxxx
s3.aws-secret-key=xxxxxxxxxxx
s3.path-style-access=true
部署启动 Trino,注意配置端口映射与挂载。
docker run --name trino -d -p 8080:8080 \
--volume /usr/local/src/volume/catalog/iceberg.properties:/etc/trino/catalog/iceberg.properties \
trinodb/trino
Trino Iceberg connector 使用
创建 Schema,后续在此 schema 下创建的 Table 不再需要指定 location 了。
# 新建
CREATE SCHEMA iceberg.trino_s3_parquet_schema
WITH (location = 's3a://xubintest/parquets/');
# 查看
show schema from iceberg;
# 切换
use iceberg.trino_s3_parquet_schema;
创建 Table。
CREATE TABLE yearly_clicks (
year,
clicks
)
WITH (
partitioning = ARRAY['year']
)
AS VALUES
(2021, 10000),
(2022, 20000);
查询表结果
参考文档
[1] Hadoop Download:https://dlcdn.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz
[2] Hive Download:https://downloads.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
[3] Mysql Driver:https://mvnrepository.com/artifact/com.mysql/mysql-connector-j
[4] Trino in a Docker container:https://trino.io/docs/current/installation/containers.html
[5] Trino Metastores:https://trino.io/docs/current/object-storage/metastores.html
[6] AWS S3:https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/userguide/Welcome.html
[7] S3 file system support:https://trino.io/docs/current/object-storage/file-system-s3.html
[8] Iceberg connector:https://trino.io/docs/current/connector/iceberg.html
[9] Object storage:https://trino.io/docs/current/connector/iceberg.html
相关推荐
- Java框架 —— Spring简介
-
简介一般来说,Spring指的是SpringFramework,它提供了很多功能,例如:控制反转(IOC)、依赖注入(DI)、切面编程(AOP)、事务管理(TX)主要jar包org.sprin...
- Monkey自动化测试
-
Monkey1.通过Monkey程序模拟用户触摸屏幕、滑动Trackball、按键等操作来对设备上的程序进行压力测试,检测程序多久的时间会发生异常;2.Monkey主要用于Android的压力...
- 十年之重修SpringBoot启动&自动装载&Bean加载过程
-
总结Springboot的自动装载,完全是依赖Bean的自动注册,其中默认的规则,是把需要自动装载的bean全名称编辑在spring.factories(2.7之后的版本,还支持.imports文件)...
- 一些可以显著提高大型 Java 项目启动速度的尝试
-
我们线上的业务jar包基本上普遍比较庞大,动不动一个jar包上百M,启动时间在分钟级,拖慢了我们在故障时快速扩容的响应。于是做了一些分析,看看Java程序启动慢到底慢在哪里,如何去优化,...
- class 增量发包改造为 jar 包方式发布
-
大纲class增量发包介绍项目目录结构介绍jar包方式发布落地方案class增量发包介绍当前项目的迭代修复都是通过class增量包来发版本的将改动的代码class增量打包,如下图cla...
- Flink架构及其工作原理(很详细)
-
原文链接:https://www.cnblogs.com/code2one/p/10123112.html关键词:Flink架构、面试杀手锏!更多大数据架构、实战经验,欢迎关注【大数据与机器学习】,...
- 大促系统优化之应用启动速度优化实践
-
作者:京东零售宋维飞一、前言本文记录了在大促前针对SpringBoot应用启动速度过慢而采取的优化方案,主要介绍了如何定位启动速度慢的阻塞点,以及如何解决这些问题。希望可以帮助大家了解如何定位该类问...
- Maven工程如何使用非Maven仓库jar包
-
使用Maven之前,一直都是自己手工在网上搜索需要的jar包,然后添加到工程中。以这样的方式开发,工作了好多年,曾经以为以后也会一直这样下去。直到碰上Maven,用了第一次,就抛弃老方法了。Maven...
- 【推荐】一款开源免费、功能强大的短链接生成平台
-
项目介绍reduce是一款开源免费、功能强大的短链接生成平台。部署在服务器,使用短域名解析即可提供服务。CoodyFramework首秀,自写IOC、MVC、ORM、TASK、JSON、DB连接池、...
- K8S官方java客户端之七:patch操作
-
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;...
- Java 的业务逻辑验证框架 之-fluent-validator
-
开发人员在维护核心业务逻辑的同时,还需要为输入做严格的校验。当输入不合法时,能够给caller一个明确的反馈,最常见的反馈就是返回封装了result的对象或者抛出exception。一些常见...
- 互联网大厂后端必看!手把手教你替换 Spring Boot 中的日志框架
-
在互联网大厂的后端开发工作中,SpringBoot框架是搭建项目的“得力助手”,使用十分普遍。但不少开发者都遇到过这样的困扰:SpringBoot默认集成的Logback日志框架,在实际...
- 测试经理教你如何用monkey进行压力测试!
-
一、monkey是什么1、monkey程序由android系统自带,使用Java语言写成,在Android文件系统中的存放路径是:/system/framework/monkey.jar2、Mo...
- Java-Maven详解
-
一、什么是Maven?ApacheMaven是一个软件项目管理的综合工具。基于项目对象模型(POM)的概念,提供了帮助管理构建、文档、报告、依赖、发布等方法,Maven简化和标准化项目建设过程。处理...
- SpringBoot打包部署最佳实践
-
springboot介绍SpringBoot目前流行的javaweb应用开发框架,相比传统的spring开发,springboot极大简化了配置,并且遵守约定优于配置的原则即使0配置也能正常运...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- hive行转列函数 (63)
- sourcemap文件是什么 (54)
- display none 隐藏后怎么显示 (56)
- 共享锁和排他锁的区别 (51)
- httpservletrequest 获取参数 (64)
- jstl包 (64)
- qsharedmemory (50)
- watch computed (53)
- java中switch (68)
- date.now (55)
- git-bash (56)
- 盒子垂直居中 (68)
- npm是什么命令 (62)
- python中+=代表什么 (70)
- fsimage (51)
- nginx break (61)
- mysql分区表的优缺点 (53)
- centos7切换到图形界面 (55)
- 前端深拷贝 (62)
- kmp模式匹配算法 (57)
- jsjson字符串转json对象 (53)
- jdbc connection (61)
- javascript字符串转换为数字 (54)
- mybatis 使用 (73)
- 安装mysql数据库 (55)