0764-HDP Spark 2.3.2访问外部Hive 2的配置及验证
wxin55 2024-11-10 12:16 9 浏览 0 评论
作者:谢敏灵,Cloudera资深解决方案架构师
?背景
数据质量平台基于定义好的数据稽核和数据质量规则,生成Spark SQL并提交运行到HDP 3.1.5集群的Spark 2.3.2上。Spark 通过以下方式之一获取某Hadoop集群上Hive表的数据:
- JDBC方式。Spark基于已有的Presto JDBC客户端,通过Presto服务器获取某Hadoop集群Hive表数据。
优点:Presto已打通与某Hadoop集群的连通,无需额外开通端口;
缺点:SQL通过Presto走,性能受制于Presto服务器和JDBC连接数。
- Hive Metastore方式。Spark获取Hive Metastore的元数据,基于元数据直接访问某Hadoop集群的HDFS,获取Hive表数据。
优点:直接访问数据源,性能不受限制,性能调优集中在Spark端。
缺点:需要开通某Hadoop集群的Hive Metastore和HDFS的对应端口(如:Hive Metastore端口、NameNode端口、DataNode端口)。
本文只讨论Hive Metastore方式的配置和验证,即在对应端口已开通的前提下,如何通过配置实现Spark访问外部Hive 2。
1.1 模拟验证环境
基于以下环境模拟验证HDP Spark 2访问外部Hive 2:
- HDP 3.1.5集群,组件版本:Spark 2.3.2,YARN 3.1.1,HDFS 3.1.1
- CDH 6.2.0集群,组件版本:HDFS 3.0.0+cdh6.2.0,Hive 2.1.1+cdh6.2.0
Spark访问外部Hive Metastore
2.1 Spark访问Hive Metastore的相关配置
参考:https://spark.apache.org/docs/latest/sql-data-sources-hive-tables.html
2.1.1 hive-site.xml
Hive配置文件hive-site.xml需要放置到HDP Spark配置目录/etc/spark2/conf下,Spark基于hive-site.xml获取hive metastore uris等信息。
注意:hive-site.xml文件的属主是:spark:spark。
2.1.2 spark-defaults.conf
Spark SQL的Hive支持最重要的部分之一是与Hive Metastore的交互,这使Spark SQL能够访问Hive表的元数据。从Spark 1.4.0开始,Spark SQL的一个二进制构建包可以使用下面描述的配置来查询不同版本的Hive Metastore。
spark.sql.hive.metastore.version
Hive Metastore的版本。HDP Spark的默认配置为:3.0
spark.sql.hive.metastore.jars
用于实例化HiveMetastoreClient的jar包的位置。可用选项:
- builtin:使用Spark内置的Hive jar包
- maven:使用从Maven存储库下载的指定版本的Hive jar包
- JVM类路径:JVM标准格式的类路径。这个类路径必须包含所有Hive及其依赖项,包括正确版本的Hadoop。这些jar只需要出现在driver上,但是如果在yarn cluster模式下运行,那么必须确保它们与应用程序打包在一起。
HDP Spark的默认配置为:/usr/hdp/current/spark2-client/standalone-metastore/*
2.2 Option 1:使用外部Hive Jar包
在/usr/hdp/current/spark2-client下创建目录standalone-metastore-hive2,并将外部Hive 2的hive-exec和hive-metastore包放到该目录下:
更改spark-defaults.conf配置:
- spark.sql.hive.metastore.version:2.0
- spark.sql.hive.metastore.jars:
/usr/hdp/current/spark2-client/standalone-metastore-hive2/*
测试验证:
可以访问外部Hive Metastore元数据。
2.3 Option 2:使用Spark内置的Hive Jar包
更改spark-defaults.conf配置:
- spark.sql.hive.metastore.version:1.2.2
- spark.sql.hive.metastore.jars:builtin
测试验证:
可以访问外部Hive Metastore元数据。
Spark访问外部Hive表
3.1 Option 1:hdfs-site.xml和core-site.xml
将外部Hive 2的hdfs-site.xml(HDFS配置)和core-site.xml(安全配置)文件放置到HDP Spark配置目录/etc/spark2/conf下。
注意:hdfs-site.xml和core-site.xml文件的属主是:spark:spark。
同时,还需要把CDH的yarn配置目录conf.cloudera.yarn整体复制到HDP Hadoop配置目录/etc/hadoop目录下:
Spark访问外部Hive表测试验证:
可以访问外部Hive表数据。
3.2 Option 2:HDFS跨集群访问
Option 1需要复制CDH的hdfs-site.xml、core-site.xml和conf.cloudera.yarn到HDP的相应目录下,比较麻烦,同时这种方式也不够灵活。
本文提出另一种更简单灵活的方式,该方式基于HDP和CDH的HDFS跨集群访问。
要实现HDFS跨集群访问及集群间互访,首先需要保证每个集群的nameservice ID唯一
(更改nameservice参考:https://docs.cloudera.com/documentation/enterprise/5-6-x/topics/admin_ha_change_nameservice.html)
;其次需要在hdfs-site.xml里增加其它集群的nameserviceID到dfs.nameservices属性中,如:
<property>
<name>dfs.nameservices</name>
<value>nameservice1,nameservice2,nameservice3,nameservice4</value>
</property>
同时复制那些引用nameserviceID的其它属性到hdfs-site.xml中,如:
dfs.ha.namenodes.<nameserviceID>
dfs.client.failover.proxy.provider.<nameserviceID>
dfs.namenode.rpc-address.<nameserviceID>.<namenode1>
dfs.namenode.servicerpc-address.<nameserviceID>.<namenode1>
dfs.namenode.http-address.<nameserviceID>.<namenode1>
dfs.namenode.https-address.<nameserviceID>.<namenode1>
dfs.namenode.rpc-address.<nameserviceID>.<namenode2>
dfs.namenode.servicerpc-address.<nameserviceID>.<namenode2>
dfs.namenode.http-address.<nameserviceID>.<namenode2>
dfs.namenode.https-address.<nameserviceID>.<namenode2>
HDFS跨集群访问测试验证:
以上,nameservice1是HDP HDFS的ID,nameservice2是CDH HDFS的ID。
Spark访问外部Hive表测试验证:
可以访问外部Hive表数据。
相比于Option 1,Option 2无需复制任何配置文件,同时Spark可以灵活地访问两个HDFS集群的文件:
相关推荐
- 黑客工具sqlmap,带你了解什么师sql注入
-
1、sqlmap介绍sqlmap是一款支持MySQL,Oracle,PostgreSQL,MicrosoftSQLServer,MicrosoftAccess,IBMDB2,SQL...
- Web网络安全漏洞分析,SQL注入原理详解
-
本文主要为大家介绍了Web网络安全漏洞分析SQL注入的原理详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪一、SQL注入的基础1.1介绍SQL注入SQL注入就是指We...
- sql注入、文件上传、文件包含(sql注入数据提交的类型)
-
在owasp年度top10安全问题中,注入高居榜首。SQL注入攻击指的是通过构建特殊的输入作为参数传入Web应用程序,而这些输入大都是SQL语法里的一些组合,通过执行SQL语句进而执行攻击者所要...
- 比较常见类型漏洞讲解(三):SQL注入(一)
-
比较常见类型漏洞讲解(一)比较常见类型漏洞讲解(二):文件上传这里继续介绍比较容易找到的不同类型的漏洞。演示准备目标主机:Metasploitable2攻击目标:目标主机的dvwa系统攻击机:Kali...
- 警惕SQL注入:检测与防御的实战指南
-
在当今数字化的时代,软件系统的安全性至关重要。SQL注入作为一种常见且危害巨大的安全漏洞,给企业和用户带来了潜在的风险。对于测试人员来说,掌握发现和解决SQL注入漏洞的方法是保障软件质量和安全的...
- SQL注入的原理和危害(sql注入的原理及危害)
-
什么是SQL注入SQL注入是发生在web端的安全漏洞,实现非法操作,欺骗服务器执行非法查询,他的危害有会恶意获取,甚至篡改数据库信息,绕过登录验证,原理是针对程序员编写时的疏忽,通过执行SQL语句,实...
- 科普基础 | 最全的SQL注入总结(sql注入是干嘛的)
-
0x01SQL注入原理当客户端提交的数据未作处理或转义直接带入数据库,就造成了sql注入。攻击者通过构造不同的sql语句来实现对数据库的任意操作。0x02SQL注入的分类按变量类型分:数字型和字符...
- 产品经理必备IT技术知识之“什么是SQL注入攻击?
-
不少优秀的产品经理都会写一些简单的SQL语句进行数据查询的操作,但是会写SQL语句不代表能写好SQL语句。SQL语句写得不好,就会引发SQL注入攻击。SQL注入攻击是Web开发中最常见的一种安全问题,...
- 通过sql注入获取用户名和密码(联通光猫超级用户名超级密码获取)
-
1.啥是sql注入sql注入是一种通过操作输入来修改后台sql语句以达到利用代码进行攻击目的的技术2.生成sql注入漏洞的原因总结一句话:对前台传过来的参数没有进行有效的过滤,太相信前端传过来的参数...
- 什么是SQL注入攻击(SQL Injection)
-
1,定义:在构建数据库SQL语句时,攻击者在参数请求中注入恶意的SQL代码,并在在数据库中执行,操控数据库执行意图之外的操作。2,目的:窃取数据、修改数据、删除数据、绕过身份验证、权限提升,执...
- 浅谈SQL注入(sql注入的理解)
-
在关于SQL注入,百度的解释是这样的:SQL注入即是指web应用程序对用户输入数据的合法性没有判断或过滤不严,攻击者可以在web应用程序中事先定义好的查询语句的结尾上添加额外的SQL语句,在管理员不知...
- sql注入(sql注入攻击是什么意思)
-
SQL注入分类1.数字型注入当输入的参数为整型时,则有可能存在数字型注入漏洞。假设存在一条URL为:HTTP://www.aaa.com/test.php?id=1可以对后台的SQL语句猜...
- SQL注入详解(sql注入总结)
-
现在大多数系统都使用B/S架构,出于安全考虑需要过滤从页面传递过来的字符。通常,用户可以通过以下接口调用数据库的内容:URL地址栏、登陆界面、留言板、搜索框等。这往往会出现安全隐患,为了更好的保护数据...
- 什么是sql注入,这些坑得避开(什么是sql注入,编程时如何避免)
-
1、sql注入是什么sql注入就是用户通过输入的参数,拼接到原先的sql中,成为sql的一部分,从而影响sql的功能和执行结果2、sql注入破坏力-小兵破坏力比如原先sql如下s...
- 金母鸡量化教学场:pandas—数据挖掘的Python库
-
如果你想充分发挥Python的强大作用,如果你想成为一名好的Python量化师,你应该先学好Pandas。今天就来了解什么是Pandas。与numpy易于处理同种类型数据不同,pandas更加的适合...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- hive行转列函数 (63)
- sourcemap文件是什么 (54)
- display none 隐藏后怎么显示 (56)
- 共享锁和排他锁的区别 (51)
- httpservletrequest 获取参数 (64)
- jstl包 (64)
- qsharedmemory (50)
- watch computed (53)
- java中switch (68)
- date.now (55)
- git-bash (56)
- 盒子垂直居中 (68)
- npm是什么命令 (62)
- python中+=代表什么 (70)
- fsimage (51)
- nginx break (61)
- mysql分区表的优缺点 (53)
- centos7切换到图形界面 (55)
- 前端深拷贝 (62)
- kmp模式匹配算法 (57)
- jsjson字符串转json对象 (53)
- jdbc connection (61)
- javascript字符串转换为数字 (54)
- mybatis 使用 (73)
- 安装mysql数据库 (55)