百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Trino Iceberg connector + HMS + S3 初尝

wxin55 2024-11-16 01:39 7 浏览 0 评论

架构

  • Trino iceberg connector:高效查询存储在 S3 上的 Iceberg 表数据,充分利用 Iceberg 的优化和功能。
  • Hive Metastore:管理 Iceberg 表的元数据。
  • Apache Iceberg:提供高效的表格式和数据管理机制,支持大规模数据集的高性能查询。
  • AWS S3:作为存储层,存储 Iceberg 表的数据文件,提供持久性和高可用性。

环境

  • Ubuntu 22.04.4 LTS
  • JDK22
  • MYSQL 8.0.37
  • Hadoop 3.3.5
  • Hive 3.1.3
  • Trino 451
  • Docker 26.1.4
  • Amazon S3

本地部署 Hive Thrift Metastore (HMS)

下载 Hadoop[1]

# 解压
tar xvf hadoop-3.3.5.tar.gz

从 mvnrepository 下载 aws-java-sdk-s3-1.12.749.jaraws-java-sdk-core-1.12.749.jar,、hadoop-aws-3.3.5.jar 放到 ${HADOOP_HOME}/share/hadoop/tools/lib/ 目录下。

下载 Hive[2]

# 解压
tar xvf apache-hive-3.1.3-bin.tar.gz

# 环境变量配置
sudo nano /etc/profile

# 在文件底部加入
export HIVE_HOME=/usr/local/src/apache-hive-3.1.3-bin
export PATH=$PATH:$HIVE_HOME/bin

# 刷新生效
source /etc/profile
# 验证
echo $HIVE_HOME

Thrift Metastore 是 Apache Hive 的一个核心组件,用于存储和管理 Hive 的元数据。作为一个独立的进程运行,Thrift Metastore 使用 Apache Thrift 作为 RPC框架来实现元数据的存取和管理,客户端通过 Thrift 接口与 Metastore 服务进行通信。Metastore 实际使用关系型数据库来存储元数据,Metastore 服务通过 JDBC 与数据库进行交互。

在这里笔者选用了 MYSQL 来存储元数据,操作如下:

# 下载对应版本的 MYSQL 驱动[3] 并放到 hive 的  /lib 目录下
/lib/mysql-connector-j-8.0.33.jar

# MYSQL
# 创建库
CREATE DATABASE hive_metastore;
# 创建用户与授权
CREATE USER 'hive'@'localhost' IDENTIFIED BY '<password>';
GRANT ALL PRIVILEGES ON hive_metastore.* TO 'hive'@'localhost';

创建或修改 ${HIVE_HOME}/conf/hive-site.xml 文件,配置如下:

<configuration>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://localhost:3306/hive_metastore?createDatabaseIfNotExist=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.cj.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>hive</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>${your password}</value>
    </property>
</configuration>

Thrift Metastore 虽然不需要依赖 Hadoop 相关服务即可独立运行,但其依赖于 Hadoop 提供的一些必要的 Jar ,如初始化 schema 的 schematool 依赖于 Hadoop 的类库。因此需要修创建或修改 ${HIVE_HOME}/conf/hive-env.sh,如下所示:

export HADOOP_HOME=/usr/local/src/hadoop-3.3.5
export HIVE_AUX_JARS_PATH=${HADOOP_HOME}/share/hadoop/tools/lib/aws-java-sdk-core-1.12.749.jar:${HADOOP_HOME}/share/hadoop/tools/lib/aws-java-sdk-s3-1.12.749.jar:${HADOOP_HOME}/share/hadoop/tools/lib/hadoop-aws-3.3.5.jar
export AWS_ACCESS_KEY_ID=xxxxxxxxxxxx
export AWS_SECRET_ACCESS_KEY=xxxxxxxxxx

运行初始化 schema 脚本,hive_metastore 库便会自动生成相关的表。

./bin/schematool -dbType mysql -initSchema

最后启动 Hive ThriftMetastore 服务。

# 启动
./bin/hive --service metastore &
# 验证
netstat -an | grep 9083

Docker 部署 Trino

笔者采用了 Docker 方式[4] 来部署 Trino。

# 拉取镜像
docker pull trinodb/trino

创建 iceberg.properties 配置如下,metastore[5] 指定为 hive_metastore。底层对象存储系统指定为 Amazon S3 [6][7] 。Trino iceberg connector[8] 支持多种存储系统包含对象存储,详情可参考文档[9]。

connector.name=iceberg
hive.metastore.uri=thrift://<metastore ip>:9083
iceberg.catalog.type=hive_metastore
iceberg.file-format=PARQUET
fs.hadoop.enabled=false
fs.native-s3.enabled=true
s3.region=xxxxxxxx
s3.aws-access-key=xxxxxxxx
s3.aws-secret-key=xxxxxxxxxxx
s3.path-style-access=true

部署启动 Trino,注意配置端口映射与挂载。

docker run --name trino -d -p 8080:8080 \
  --volume /usr/local/src/volume/catalog/iceberg.properties:/etc/trino/catalog/iceberg.properties \
  trinodb/trino

Trino Iceberg connector 使用

创建 Schema,后续在此 schema 下创建的 Table 不再需要指定 location 了。

# 新建
CREATE SCHEMA iceberg.trino_s3_parquet_schema
WITH (location = 's3a://xubintest/parquets/');

#  查看
show schema from iceberg;

# 切换
use iceberg.trino_s3_parquet_schema;

创建 Table。

CREATE TABLE yearly_clicks (
    year,
    clicks
)
WITH (
    partitioning = ARRAY['year']
)
AS VALUES
    (2021, 10000),
    (2022, 20000);

查询表结果

参考文档

[1] Hadoop Download:https://dlcdn.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz

[2] Hive Download:https://downloads.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

[3] Mysql Driver:https://mvnrepository.com/artifact/com.mysql/mysql-connector-j

[4] Trino in a Docker container:https://trino.io/docs/current/installation/containers.html

[5] Trino Metastores:https://trino.io/docs/current/object-storage/metastores.html

[6] AWS S3:https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/userguide/Welcome.html

[7] S3 file system support:https://trino.io/docs/current/object-storage/file-system-s3.html

[8] Iceberg connector:https://trino.io/docs/current/connector/iceberg.html

[9] Object storage:https://trino.io/docs/current/connector/iceberg.html

相关推荐

Java框架 —— Spring简介

简介一般来说,Spring指的是SpringFramework,它提供了很多功能,例如:控制反转(IOC)、依赖注入(DI)、切面编程(AOP)、事务管理(TX)主要jar包org.sprin...

Monkey自动化测试

Monkey1.通过Monkey程序模拟用户触摸屏幕、滑动Trackball、按键等操作来对设备上的程序进行压力测试,检测程序多久的时间会发生异常;2.Monkey主要用于Android的压力...

十年之重修SpringBoot启动&amp;自动装载&amp;Bean加载过程

总结Springboot的自动装载,完全是依赖Bean的自动注册,其中默认的规则,是把需要自动装载的bean全名称编辑在spring.factories(2.7之后的版本,还支持.imports文件)...

一些可以显著提高大型 Java 项目启动速度的尝试

我们线上的业务jar包基本上普遍比较庞大,动不动一个jar包上百M,启动时间在分钟级,拖慢了我们在故障时快速扩容的响应。于是做了一些分析,看看Java程序启动慢到底慢在哪里,如何去优化,...

class 增量发包改造为 jar 包方式发布

大纲class增量发包介绍项目目录结构介绍jar包方式发布落地方案class增量发包介绍当前项目的迭代修复都是通过class增量包来发版本的将改动的代码class增量打包,如下图cla...

Flink架构及其工作原理(很详细)

原文链接:https://www.cnblogs.com/code2one/p/10123112.html关键词:Flink架构、面试杀手锏!更多大数据架构、实战经验,欢迎关注【大数据与机器学习】,...

大促系统优化之应用启动速度优化实践

作者:京东零售宋维飞一、前言本文记录了在大促前针对SpringBoot应用启动速度过慢而采取的优化方案,主要介绍了如何定位启动速度慢的阻塞点,以及如何解决这些问题。希望可以帮助大家了解如何定位该类问...

Maven工程如何使用非Maven仓库jar包

使用Maven之前,一直都是自己手工在网上搜索需要的jar包,然后添加到工程中。以这样的方式开发,工作了好多年,曾经以为以后也会一直这样下去。直到碰上Maven,用了第一次,就抛弃老方法了。Maven...

【推荐】一款开源免费、功能强大的短链接生成平台

项目介绍reduce是一款开源免费、功能强大的短链接生成平台。部署在服务器,使用短域名解析即可提供服务。CoodyFramework首秀,自写IOC、MVC、ORM、TASK、JSON、DB连接池、...

K8S官方java客户端之七:patch操作

欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;...

Java 的业务逻辑验证框架 之-fluent-validator

开发人员在维护核心业务逻辑的同时,还需要为输入做严格的校验。当输入不合法时,能够给caller一个明确的反馈,最常见的反馈就是返回封装了result的对象或者抛出exception。一些常见...

互联网大厂后端必看!手把手教你替换 Spring Boot 中的日志框架

在互联网大厂的后端开发工作中,SpringBoot框架是搭建项目的“得力助手”,使用十分普遍。但不少开发者都遇到过这样的困扰:SpringBoot默认集成的Logback日志框架,在实际...

测试经理教你如何用monkey进行压力测试!

一、monkey是什么1、monkey程序由android系统自带,使用Java语言写成,在Android文件系统中的存放路径是:/system/framework/monkey.jar2、Mo...

Java-Maven详解

一、什么是Maven?ApacheMaven是一个软件项目管理的综合工具。基于项目对象模型(POM)的概念,提供了帮助管理构建、文档、报告、依赖、发布等方法,Maven简化和标准化项目建设过程。处理...

SpringBoot打包部署最佳实践

springboot介绍SpringBoot目前流行的javaweb应用开发框架,相比传统的spring开发,springboot极大简化了配置,并且遵守约定优于配置的原则即使0配置也能正常运...

取消回复欢迎 发表评论: