数据治理(十六):Ranger 管理 HDFS 安全
wxin55 2024-11-16 01:39 7 浏览 0 评论
Ranger 管理 Hive 安全
一、配置 HiveServer2
访问 Hive 有两种方式:HiveServer2 和 Hive Client,Hive Client 需要 Hive 和 Hadoop 的 jar 包,配置环境。HiveServer2 使得连接 Hive 的 Client 从 Yarn 和 HDFS 集群中独立出来,不需要每个节点都配置 Hive 和 Hadoop 的 jar 包和一系列环境。
Ranger 管理 Hive 权限只能针对 HiveServer2 jdbc 方式连接,所以这里需要配置 HiveServer2。
配置 HiveServer2 步骤如下:
1)在 Hive 服务端配置 hive-site.xml
#在Hive 服务端 $HIVE_HOME/conf/hive-site.xml中配置:
<!-- 配置hiveserver2 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>192.168.179.4</value>
</property>
<!-- 配置hiveserver2使用的zookeeper -->
<property>
<name>hive.zookeeper.quorum</name>
<value> node3:2181,node4:2181,node5:2181</value>
</property>
注意:“hive.zookeeper.quorum”搭建 hiveserver2HA 使用配置项,可以不配置,如果不配置启动 hiveServer2 时一直连接本地 zookeeper,导致大量错误日志(/tmp/root/hive.log),从而导致通过 beeline 连接当前 node1 节点的 hiveserver2 时不稳定,会有连接不上错误信息。
2)在每台 Hadoop 节点配置 core-site.xml,记得发送到所有节点
<!-- 配置代理访问用户,如果不配置下列信息 hive的jdbc连接会报错 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
3)重启 HDFS ,Hive ,在 Hive 服务端启动 Metastore 和 HiveServer2 服务
[root@node1 conf]# hive --service metastore &
[root@node1 conf]# hive --service hiveserver2 > /root/hiveserver2_log.txt &
4)在客户端通过 beeline 连接 Hive
[root@node3 test]# beeline
beeline> !connect jdbc:hive2://node1:10000 root
Enter password for jdbc:hive2://node1:10000: **** #可以输入任意密码,没有验证
0: jdbc:hive2://node1:10000> show tables;
二、安装 Ranger-hive-plugin
我们可以使用 Ranger 对 Hive 数据安全进行管理,这里需要安装 Hive 插件“ranger-2.1.0-hive-plugin”,此插件只能对 jdbc 方式连接 Hive 的请求进行权限管理,不能对 hive-cli 客户端方式进行权限管理(一般安装 Hive 的节点才能使用 Hive 客户端访问)。步骤如下:
1)远程发送编译好的“hive-plugin”到 node1 节点“/software”目录下,并解压
远程发送“/software/apache-ranger-2.1.0/target/”下的“ranger-2.1.0-hive-plugin.tar.gz”到 node1 节点“/software”下:
[root@node3 /]# scp /software/apache-ranger-2.1.0/target/ranger-2.1.0-hive-plugin.tar.gz node1:/software/
#在node1节点操作
[root@node1 ~]# cd /software/
[root@node1 software]# tar -zxvf ./ranger-2.1.0-hive-plugin.tar.gz
2)配置“install.properties”文件
进入到“/software/ranger-2.1.0-hive-plugin”目录中,修改“install.properties”文件:
[root@node1 ranger-2.1.0-hive-plugin]# vim install.properties
#配置Ranger-Admin访问地址
POLICY_MGR_URL=http://node1:6080
#配置Hive 仓库名称,可以自定义,需要后期在Ranger中使用
REPOSITORY_NAME=hive_repo
#配置Hive的安装目录
COMPONENT_INSTALL_DIR_NAME=/software/hive-3.1.2/
#配置使用插件的用户和用户组
CUSTOM_USER=root
CUSTOM_GROUP=root
3)执行“enable-hive-plugin.sh”脚本启动 hive 插件
进入到“/software/ranger-2.1.0-hive-plugin”目录下,执行如下命令,启用插件:
[root@node1 ~]# cd /software/ranger-2.1.0-hive-plugin
[root@node1 ranger-2.1.0-hive-plugin]# enable-hive-plugin.sh
三、配置 Ranger 连接 Hive 服务
安装好以上 Hive-Plugin 之后,重新启动 HDFS,启动 Hive,HiveMetastore、HiveServer2 等。如果想要对连接 Hive 的用户进行表、列权限管理,需要在 Ranger 中添加对应的 Hive 服务,才可以使用 Ranger 通过这个服务配置每个用户对 Hive 库、表、列权限管理。配置如下:
1)启动 HDFS,启动 Hive、Hive MeateStore、Hive Server2
#启动HDFS,在node1节点上启动Hive metastore
[root@node1 conf]# start-all.sh
[root@node1 conf]# hive --service metastore &
[root@node1 conf]# hive --service hiveserver2 > /root/hiveserver2_log.txt &
2)在 Ranger 页面中配置 Hive
注意,以上参数解释如下:
- “Service Name”填写当前 Hive 服务名称,与 Hive 插件中"install.properties"文件配置参数"REPOSITORY_NAME"保持一致。
- 配置的“user”和“password”也是与"install.properties"文件中配置的“CUSTOM_USER=root”、“CUSTOM_GROUP=root”保持一致。
- “jdbc.url”填写“jdbc:hive2://node1:10000”即可,这里连接 node1。
添加完成之后:
3)连接测试是否可以 jdbc 方式连接上 Hive
注意:这里连接时,单机测试连接时需要等待一段时间,才能正常连接。
四、Ranger 对 Hive 用户进行权限管理
查看 Ranger 中配置好的 Hive 权限管理服务:
修改上图中只有 root 用户对所以库、表、列具有操作权限,修改后如下:
在 node3 中登录 beeline 连接 node1 hive:
#node3 通过beeline连接Hive
[root@node3 ~]# beeline
#连接HiveServer2 jdbc连接
beeline> !connect jdbc:hive2://node1:10000
#这里用户名目前可以随意输入,在Hive中没有校验,这里可以通过Hive配置有哪些用
#户可以连接Hive,然后通过Ranger再管理这些用户的细粒度访问权限。从上图中可以
#看到目前只有root用户可以访问表数据,可以使用非root用户测试,这里使用
#“diaochan”用户:
Enter username for jdbc:hive2://node1:10000: diaochan
#由于Hive中没有检验密码,所以这里可以随意输入任意密码
Enter password for jdbc:hive2://node1:10000: ****
#查询库下的表,没有权限。
0: jdbc:hive2://node1:10000> show tables
Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: user [daochan] does not have [USE] privilege on [de
fault] (state=42000,code=40000)
#重新使用root用户登录beeline,查询对应的表,有权限
[root@node3 ~]# beeline
beeline> !connect jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: root
Enter password for jdbc:hive2://node1:10000: *** #密码随意
0: jdbc:hive2://node1:10000> show tables;
下面在 Hive 中创建两张表进行权限管理:
#在Hive中创建两张表
create table student (id int,name string,age int) row format delimited fields terminated by '\t';
create table score (id int,name string,score int) row format delimited fields terminated by '\t';
上传数据附件,将以上文件上传到 node3“/software/test”下
1 zhangsan 18
2 lisi 19
3 wangwu 20
4 maliu 21
5 tianqi 22
6 zhaoba 23
1 zhangsan 100
2 lisi 200
3 wangwu 300
4 maliu 400
5 tianqi 500
6 zhaoba 600
#加载数据:
hive> load data local inpath '/root/test/students.txt' into table student;
hive> load data local inpath '/root/test/scores.txt' into table score;
权限需求:对用户“user1”配置以上两张表的访问和修改权限,对用户“user2”配置对两张表只有访问权限。
配置步骤如下:
1)在 node1 节点创建两个用户,密码为对应用户名称
#创建两个用户user1,和user2
[root@node1 ~]# useradd user1
[root@node1 ~]# passwd user1
[root@node1 ~]# useradd user2
[root@node1 ~]# passwd user2
2)在 Ranger 页面,打开“hive_repo”服务,配置如下:
配置“Student”表权限:
最终配置好如下:
3)登录 Hive Beeline 测试:
向 HDFS 中插入数据时,user1,user2 用户需要操作 HDFS 和 Yarn,所以这里将 HDFS 中 Hive 对应的路径“/user/hive/warehouse”中的“/user”路径权限改成“777”,将 Yarn 使用目录“tmp”路径权限改成“777”
[root@node5 bin]# hdfs dfs -chmod -R 777 /user
[root@node5 bin]# hdfs dfs -chmod -R 777 /tmp
测试登录 user1,对“student”、“score”表有操作和修改权限,如下:
[root@node3 ~]# beeline
beeline> !connect jdbc:hive2://node1:10000
0: jdbc:hive2://node1:10000> select * from student;
0: jdbc:hive2://node1:10000> select * from score;
#向表student、score中插入数据,也能通过。
0: jdbc:hive2://node1:10000> insert into student values (7,"aa",24);
0: jdbc:hive2://node1:10000> insert into score values (7,"bb",700);
测试登录 user2,对“student”、“score”表有操作和修改权限,如下:
[root@node3 software]# beeline
beeline> !connect jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: user2
Enter password for jdbc:hive2://node1:10000: *** #密码随便输入
0: jdbc:hive2://node1:10000> select * from student;
0: jdbc:hive2://node1:10000> select * from score;
#测试向“student”和“score”中插入数据,没有对应权限:
0: jdbc:hive2://node1:10000> insert into table student values (8,"cc",25);
Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: user [user2] does not have [UPDATE] privilege on [d
efault/student] (state=42000,code=40000)
0: jdbc:hive2://node1:10000> insert into table score values (8,"dd",800);
Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: user [user2] does not have [UPDATE] privilege on [d
efault/score] (state=42000,code=40000)
权限需求:对用户“user3”配置对“student”表中“id、name”两列有查询权限,其他列没有查询权限。
配置步骤如下:
1)在 node1 节点中添加用户“user3”
#创建两个用户user3
[root@node1 ~]# useradd user3
[root@node1 ~]# passwd user3
2)给用户“user3”配置表“student”的访问权限
3)测试
#user3登录beeline
[root@node3 software]# beeline
beeline> !connect jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: user3
#访问表“student”数据,“age”列无法查询,select * 查询不允许
0: jdbc:hive2://node1:10000> select id ,name from student;
权限需求:对用户“user1”访问表“student”时,“age”列进行空值输出,进行脱敏。
配置步骤如下:
1)给用户“user1”配置表“student”的“Masking”访问权限
2)登录 Hive Beeline 测试
[root@node3 software]# beeline
beeline> !connect jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: user1
0: jdbc:hive2://node1:10000> select * from student;
权限需求:对用户“user2”访问表“student”时,“age”列只能插叙小于等于 20 的行数据。
配置步骤如下:
1)给用户“user1”配置表“student”的“Masking”访问权限
2)登录 Hive Beeline 测试
[root@node3 software]# beeline
beeline> !connect jdbc:hive2://node1:10000
Enter username for jdbc:hive2://node1:10000: user2
#查询只有3行满足条件的数据
0: jdbc:hive2://node1:10000> select * from student;
相关推荐
- 黑客工具sqlmap,带你了解什么师sql注入
-
1、sqlmap介绍sqlmap是一款支持MySQL,Oracle,PostgreSQL,MicrosoftSQLServer,MicrosoftAccess,IBMDB2,SQL...
- Web网络安全漏洞分析,SQL注入原理详解
-
本文主要为大家介绍了Web网络安全漏洞分析SQL注入的原理详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪一、SQL注入的基础1.1介绍SQL注入SQL注入就是指We...
- sql注入、文件上传、文件包含(sql注入数据提交的类型)
-
在owasp年度top10安全问题中,注入高居榜首。SQL注入攻击指的是通过构建特殊的输入作为参数传入Web应用程序,而这些输入大都是SQL语法里的一些组合,通过执行SQL语句进而执行攻击者所要...
- 比较常见类型漏洞讲解(三):SQL注入(一)
-
比较常见类型漏洞讲解(一)比较常见类型漏洞讲解(二):文件上传这里继续介绍比较容易找到的不同类型的漏洞。演示准备目标主机:Metasploitable2攻击目标:目标主机的dvwa系统攻击机:Kali...
- 警惕SQL注入:检测与防御的实战指南
-
在当今数字化的时代,软件系统的安全性至关重要。SQL注入作为一种常见且危害巨大的安全漏洞,给企业和用户带来了潜在的风险。对于测试人员来说,掌握发现和解决SQL注入漏洞的方法是保障软件质量和安全的...
- SQL注入的原理和危害(sql注入的原理及危害)
-
什么是SQL注入SQL注入是发生在web端的安全漏洞,实现非法操作,欺骗服务器执行非法查询,他的危害有会恶意获取,甚至篡改数据库信息,绕过登录验证,原理是针对程序员编写时的疏忽,通过执行SQL语句,实...
- 科普基础 | 最全的SQL注入总结(sql注入是干嘛的)
-
0x01SQL注入原理当客户端提交的数据未作处理或转义直接带入数据库,就造成了sql注入。攻击者通过构造不同的sql语句来实现对数据库的任意操作。0x02SQL注入的分类按变量类型分:数字型和字符...
- 产品经理必备IT技术知识之“什么是SQL注入攻击?
-
不少优秀的产品经理都会写一些简单的SQL语句进行数据查询的操作,但是会写SQL语句不代表能写好SQL语句。SQL语句写得不好,就会引发SQL注入攻击。SQL注入攻击是Web开发中最常见的一种安全问题,...
- 通过sql注入获取用户名和密码(联通光猫超级用户名超级密码获取)
-
1.啥是sql注入sql注入是一种通过操作输入来修改后台sql语句以达到利用代码进行攻击目的的技术2.生成sql注入漏洞的原因总结一句话:对前台传过来的参数没有进行有效的过滤,太相信前端传过来的参数...
- 什么是SQL注入攻击(SQL Injection)
-
1,定义:在构建数据库SQL语句时,攻击者在参数请求中注入恶意的SQL代码,并在在数据库中执行,操控数据库执行意图之外的操作。2,目的:窃取数据、修改数据、删除数据、绕过身份验证、权限提升,执...
- 浅谈SQL注入(sql注入的理解)
-
在关于SQL注入,百度的解释是这样的:SQL注入即是指web应用程序对用户输入数据的合法性没有判断或过滤不严,攻击者可以在web应用程序中事先定义好的查询语句的结尾上添加额外的SQL语句,在管理员不知...
- sql注入(sql注入攻击是什么意思)
-
SQL注入分类1.数字型注入当输入的参数为整型时,则有可能存在数字型注入漏洞。假设存在一条URL为:HTTP://www.aaa.com/test.php?id=1可以对后台的SQL语句猜...
- SQL注入详解(sql注入总结)
-
现在大多数系统都使用B/S架构,出于安全考虑需要过滤从页面传递过来的字符。通常,用户可以通过以下接口调用数据库的内容:URL地址栏、登陆界面、留言板、搜索框等。这往往会出现安全隐患,为了更好的保护数据...
- 什么是sql注入,这些坑得避开(什么是sql注入,编程时如何避免)
-
1、sql注入是什么sql注入就是用户通过输入的参数,拼接到原先的sql中,成为sql的一部分,从而影响sql的功能和执行结果2、sql注入破坏力-小兵破坏力比如原先sql如下s...
- 金母鸡量化教学场:pandas—数据挖掘的Python库
-
如果你想充分发挥Python的强大作用,如果你想成为一名好的Python量化师,你应该先学好Pandas。今天就来了解什么是Pandas。与numpy易于处理同种类型数据不同,pandas更加的适合...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- hive行转列函数 (63)
- sourcemap文件是什么 (54)
- display none 隐藏后怎么显示 (56)
- 共享锁和排他锁的区别 (51)
- httpservletrequest 获取参数 (64)
- jstl包 (64)
- qsharedmemory (50)
- watch computed (53)
- java中switch (68)
- date.now (55)
- git-bash (56)
- 盒子垂直居中 (68)
- npm是什么命令 (62)
- python中+=代表什么 (70)
- fsimage (51)
- nginx break (61)
- mysql分区表的优缺点 (53)
- centos7切换到图形界面 (55)
- 前端深拷贝 (62)
- kmp模式匹配算法 (57)
- jsjson字符串转json对象 (53)
- jdbc connection (61)
- javascript字符串转换为数字 (54)
- mybatis 使用 (73)
- 安装mysql数据库 (55)