搭建大数据运行环境之二(大数据环境搭建步骤)
wxin55 2024-11-11 14:40 9 浏览 0 评论
前言
上篇文章咱们将大数据相关的一些组件都集成安装在了一个docker中
搭建大数据运行环境之一
这篇文章咱们继续 启动下该docker中的大数据相关的组件
将大数据运行环境跑起来
上篇文章的几个注意点再重申下
- 安装包应用编译之后的包
组件的安装包不要用源码包
因为源码包还需要编译打包
编译的话 还需要在docker中安装编译环境
比如
# 不要下载源码包 hadoop-2.10.1-src.tar.gz 而应该下载编译之后的包 hadoop-2.10.1.tar.gz
#HADOOP_URL=https://downloads.apache.org/hadoop/common/stable2/hadoop-2.10.1.tar.gz
# 北京理工大学开源软件镜像mirror.bit.edu.cn
HADOOP_URL=http://mirror.bit.edu.cn/apache/hadoop/common/stable2/hadoop-2.10.1.tar.gz
- 本地编译dokcer镜像然后上传到阿里镜像库然后其他地方使用
# 登陆阿里镜像库
docker login --username=孟凡霄 --password mfx@123456 registry.cn-hangzhou.aliyuncs.com
# 生成镜像
# ${dir}/hadoop 该目录指向Dockerfile文件
docker build --network host -t hadoop:v1.0 ${dir}/hadoop
# 镜像文件重命名
docker tag hadoop:v1.0 registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0
# 将镜像文件上传到阿里镜像库
docker push registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0
镜像生成好之后分别在3台服务器上下载镜像 然后通过脚本启动镜像
# 下载镜像
docker pull registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0
# 启动镜像脚本
cd /opt/bigdata/docker-hadoop-test
chmod 777 hadoop.sh
./hadoop.sh
该镜像脚本做的事情就是 运行docker
通过docker run命令
说明镜像已经起来
接下来要做的事情就是进入镜像内部 分别启动各个组件
启动hadoop集群
先通过流程图来梳理一下启动的步骤
架构图
两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信
当active状态的NameNode的命名空间有任何修改时 会告知大部分的JournalNodes进程
standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间
standby可以确保在集群出错时,命名空间状态已经完全同步了
namenode宕机了 可以手工或者自动切换
在hadoop1启动所有JournalNode
cd /usr/local/hadoop/sbin
chmod 777 hadoop-daemons.sh
hadoop-daemons.sh start journalnode
多个NameNode之间共享数据方式
- Nnetwork File Syste
通过linux共享的文件系统,属于操作系统的配置
- Quorum Journal Node
hadoop自身的东西,属于软件的配置
手工或者自动切换到另一个NameNode提供服务
在hadoop1上格式化namenode数据
cd /usr/local/hadoop/bin
hdfs namenode -format
在hadoop1上启动namenode
cd /usr/local/hadoop/sbin
hadoop-daemon.sh start namenode
在hadoop2 上执行同步namenode元数据
是双机集群系统简称 提高可用性集群
是保证业务连续性的有效解决方案
一般有两个或两个以上的节点
且分为活动节点及备用节点
在hadoop2上启动namenode
cd /usr/local/hadoop/sbin
hadoop-daemon.sh start namenode
在hadoop1上初始化zkfc
stop-dfs.sh
至此hadoop2.x hdfs完全分布式 HA 搭建完毕
HA
cd /usr/local/hadoop/sbin
start-all.sh
在hadoop1上停止业务
cd /usr/local/hadoop/sbin
start-all.sh
在hadoop1上全面启动业务
cd /usr/local/hadoop/sbin
start-all.sh
#启动了 2个namenode hadoop001,hadoop002
Starting namenodes on [hadoop001 hadoop002]
#启动了3个datanode hadoop001,hadoop002,hadoop003
#启动了3个journal nodes
Starting journal nodes [hadoop001 hadoop002 hadoop003]
#启动了ZK Failover Controllers 在hadoop001,hadoop002
Starting ZK Failover Controllers on NN hosts [hadoop001 hadoop002]
#启动了3个节点 hadoop001,hadoop002,hadoop003
starting resourcemanager(nodemanager)
科普一下hadoop这几个节点的作用
Namenode
目录管理者
每个集群都有一个 记录实时的数据变化
如果没有它 hdfs无法工作
系统中的文件将全部丢失
就无法将位于不同datanode上的文件块(blocks)重建文件
因此它的容错机制很有必要
负责
- 接受用户请求
- 维护文件系统的目录结构
- 管理文件与block之间的联系
Datanode
文件系统的工作节点
根据客户端或namenode的调度存储和检索
并定期向namenode发送它们所存储的块的列表
集群中的每个服务器都运行着一个datanode后台程序
这个datanode后台程序负责把数据块读写到本地的文件系统
负责
- 存放数据
- 文件被分割以block的形式被存储在磁盘上
Secondarynode
用来监控hdfs状态的后台辅助程序
就向namenode一样 每个集群都有一个
并且部署在一个单独的服务器上
不接受或记录任何实时的数据变化
与namenode通信 以定期保存hdfs元数据快照
存在的意义
1、由于namenode是单点
通过SecondaryNameNode的快照功能
可以将namenode宕机时间和数据损失降低到最小
2、若namenode出现问题 Secondarynode可以作为备用节点
3、主要将namenode image(fsimage)和Edit log定期合并
- fsimage
包含hadoop系统所有目录(修改时间、访问控制权限)和
文件(修改时间、访问时间、块大小、组成一个文件块信息)idnode的序列化信息
- Edit log
客户端对文件操作的记录 比如上传新文件
客户端执行写操作
周期性合并Edit log
Resourcemanager
与客户端进行交互
处理来自于客户端的请求
如查询应用的运行情况等
管理各个应用的ApplicationMaster
为ApplicationMaster申请第一个Container用于启动和
在它运行失败时将它重新启动
管理NodeManager
接收来自NodeManager的资源和节点健康情况汇报
并向NodeManager下达管理资源命令
例如kill掉某个container
资源管理和调度
最重要的职能:
接收来自ApplicationMaster的资源申请
并且为其进行分配
Nodemanager
NM是ResourceManager在每台机器上的代理
负责容器管理,并监控它们的资源使用情况
以及向ResourceManager/Scheduler提供资源使用报告
总结
Mysql
在192.168.84.128上安装Mysql
docker pull mysql:5.7
# 创建数据,配置目录
mkdir -p /docker/mysql/{data,conf.d}
# 创建配置文件
vi /docker/mysql/conf.d/my.cnf
# 添个一项配置,默认是 UTC
[mysqld]
log_timestamps=SYSTEM
default-time-zone='+8:00'
character-set-server=utf8
# 重新启动
docker run --name mysql -p 3306:3306 \
-v /docker/mysql/conf.d:/etc/mysql/conf.d \
-v /docker/mysql/data:/var/lib/mysql \
-e MYSQL_ROOT_PASSWORD=123456 \
--restart=always -d mysql:5.7
# 参数说明
-e MYSQL_ROOT_PASSWORD=123456:初始化root用户的密码
--restart=always:跟随 Docker 启动
Hive启动
- 配置Mysql用于存储hive元数据
cd /usr/local/hive/conf
vi hive-site.xml
- 初次启动Hive元数据初始化
在hadoop1上初始化元数据
cd /usr/local/hadoop/sbin
schematool -initSchema -dbType mysql
若报错 Duplicate key name 'PCS_STATS_IDX'
说明已经有hive数据库了 删除即可
若报错javax.net.ssl.SSLException: closing inbound before receiving peer's close_notify
如上面截图
添加 &useSSL=false
- 在hadoop1上启动hive
cd /usr/local/hive/bin
hiveserver2 &
- 简单的使用下hive
cd /usr/local/hive/bin
./hive
# 创建表事例
CREATE TABLE IF NOT EXISTS test (
id int
,uid int
,title string
,name string
,status int
,time timestamp)
COMMENT '简介'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY "\001"
LINES TERMINATED BY "\n"
STORED AS TEXTFILE;
CREATE TABLE IF NOT EXISTS test_out (
name string
, count int
,time date)
COMMENT '简介'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\001'
LINES TERMINATED BY '\n'
STORED AS TEXTFILE;
# 统计后将结果数据加入另一个表
INSERT INTO TABLE
test_out(name,count,time)
SELECT name,count(1),to_date(time)
FROM test
GROUP BY name,to_date(time);
INSERT OVERWRITE
TABLE test_out
SELECT name,count(1),to_date(time)
FROM test
GROUP BY name,to_date(time);
计算结果保存在了hadoop中了
后面会介绍 Mysql和Hive之间如何导入导出
启动Hbase
cd /usr/local/hbase/bin
start-hbase.sh
Sqoop启动
- 测试sqoop功能
cd /usr/local/sqoop/bin
sqoop \
list-databases \
--connect jdbc:mysql://192.168.84.128:3306/?useSSL=false \
--username root \
--password 123456
Kafka启动
cd /usr/local/kafka/bin
kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties
测试
- 创建主题
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
- 分区查看
kafka-topics.sh --zookeeper localhost:2181 --describe --topic test
- 分区扩容
kafka-topics.sh --zookeeper localhost:2181 -alter --partitions 3 --topic test
启动Spark
在hadoop1(192.168.84.128)上启动
cd /usr/local/spark/bin
${SPARK_HOME}/sbin/start-all.sh
启动Kylin
在hadoop1启动mr-jobhistory
cd /usr/local/kylin/bin
mr-jobhistory-daemon.sh start historyserver
在hadoop1上启动
kylin.sh start
http://192.168.84.128:7070/kylin
初始用户名和密码为ADMIN/KYLIN
最后附上一副大数据架构图
后记
上面的内容咱们介绍了大数据的每一个组件的启动过程
下篇文章咱们介绍下Mysql和Hive之间同步数据的两种方式
和将整个流程串联起来看看数据是如何流转的
相关推荐
- ES6中 Promise的使用场景?(es6promise用法例子)
-
一、介绍Promise,译为承诺,是异步编程的一种解决方案,比传统的解决方案(回调函数)更加合理和更加强大在以往我们如果处理多层异步操作,我们往往会像下面那样编写我们的代码doSomething(f...
- JavaScript 对 Promise 并发的处理方法
-
Promise对象代表一个未来的值,它有三种状态:pending待定,这是Promise的初始状态,它可能成功,也可能失败,前途未卜fulfilled已完成,这是一种成功的状态,此时可以获取...
- Promise的九大方法(promise的实例方法)
-
1、promise.resolv静态方法Promise.resolve(value)可以认为是newPromise方法的语法糖,比如Promise.resolve(42)可以认为是以下代码的语...
- 360前端一面~面试题解析(360前端开发面试题)
-
1.组件库按需加载怎么做的,具体打包配了什么-按需加载实现:借助打包工具(如Webpack的require.context或ES模块动态导入),在使用组件时才引入对应的代码。例如在V...
- 前端面试-Promise 的 finally 怎么实现的?如何在工作中使用?
-
Promise的finally方法是一个非常有用的工具,它无论Promise是成功(fulfilled)还是失败(rejected)都会执行,且不改变Promise的最终结果。它的实现原...
- 最简单手写Promise,30行代码理解Promise核心原理和发布订阅模式
-
看了全网手写Promise的,大部分对于新手还是比较难理解的,其中几个比较难的点:状态还未改变时通过发布订阅模式去收集事件实例化的时候通过调用构造函数里传出来的方法去修改类里面的状态,这个叫Re...
- 前端分享-Promise可以中途取消啦(promise可以取消吗)
-
传统Promise就像一台需要手动组装的设备,每次使用都要重新接线。而Promise.withResolvers的出现,相当于给开发者发了一个智能遥控器,可以随时随地控制异步操作。它解决了三大...
- 手写 Promise(手写输入法 中文)
-
前言都2020年了,Promise大家肯定都在用了,但是估计很多人对其原理还是一知半解,今天就让我们一起实现一个符合PromiseA+规范的Promise。附PromiseA+规范地址...
- 什么是 Promise.allSettled()!新手老手都要会?
-
Promise.allSettled()方法返回一个在所有给定的promise都已经fulfilled或rejected后的promise,并带有一个对象数组,每个对象表示对应的pr...
- 前端面试-关于Promise解析与高频面试题示范
-
Promise是啥,直接上图:Promise就是处理异步函数的API,它可以包裹一个异步函数,在异步函数完成时抛出完成状态,让代码结束远古时无限回掉的窘境。配合async/await语法糖,可...
- 宇宙厂:为什么前端离不开 Promise.withResolvers() ?
-
大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.为什么需要Promise.with...
- Promise 新增了一个超实用的 API!
-
在JavaScript的世界里,Promise一直是处理异步操作的神器。而现在,随着ES2025的发布,Promise又迎来了一个超实用的新成员——Promise.try()!这个新方法简...
- 一次搞懂 Promise 异步处理(promise 异步顺序执行)
-
PromisePromise就像这个词的表面意识一样,表示一种承诺、许诺,会在后面给出一个结果,成功或者失败。现在已经成为了主流的异步编程的操作方式,写进了标准里面。状态Promise有且仅有...
- Promise 核心机制详解(promise机制的实现原理)
-
一、Promise的核心状态机Promise本质上是一个状态机,其行为由内部状态严格管控。每个Promise实例在创建时处于Pending(等待)状态,此时异步操作尚未完成。当异步操作成功...
- javascript——Promise(js实现promise)
-
1.PromiseES6开始支持,Promise对象用于一个异步操作的最终完成(包括成功和失败)及结果值的表示。简单说就是处理异步请求的。之所以叫Promise,就是我承诺,如果成功则怎么处理,失败怎...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- ES6中 Promise的使用场景?(es6promise用法例子)
- JavaScript 对 Promise 并发的处理方法
- Promise的九大方法(promise的实例方法)
- 360前端一面~面试题解析(360前端开发面试题)
- 前端面试-Promise 的 finally 怎么实现的?如何在工作中使用?
- 最简单手写Promise,30行代码理解Promise核心原理和发布订阅模式
- 前端分享-Promise可以中途取消啦(promise可以取消吗)
- 手写 Promise(手写输入法 中文)
- 什么是 Promise.allSettled()!新手老手都要会?
- 前端面试-关于Promise解析与高频面试题示范
- 标签列表
-
- hive行转列函数 (63)
- sourcemap文件是什么 (54)
- display none 隐藏后怎么显示 (56)
- 共享锁和排他锁的区别 (51)
- httpservletrequest 获取参数 (64)
- jstl包 (64)
- qsharedmemory (50)
- watch computed (53)
- java中switch (68)
- date.now (55)
- git-bash (56)
- 盒子垂直居中 (68)
- npm是什么命令 (62)
- python中+=代表什么 (70)
- fsimage (51)
- nginx break (61)
- mysql分区表的优缺点 (53)
- centos7切换到图形界面 (55)
- 前端深拷贝 (62)
- kmp模式匹配算法 (57)
- jsjson字符串转json对象 (53)
- jdbc connection (61)
- javascript字符串转换为数字 (54)
- mybatis 使用 (73)
- 安装mysql数据库 (55)