博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CentOS7搭建Hadoop + HBase + Zookeeper集群
阅读量:5814 次
发布时间:2019-06-18

本文共 5976 字,大约阅读时间需要 19 分钟。

一、基础环境准备

1、下载安装包(均使用当前最新的稳定版本,截止至2017年05月24日)

1)jdk-8u131

2)hadoop-2.7.3

3)hbase-1.2.5

4)zookeeper-3.4.10

以上下载地址请点击“阅读原文”

2、修改hosts文件(使用的三台集群主机默认IP为192.168.0.100、192.168.0.101、192.168.0.102)

 
  1. # vim /etc/hosts 
  2.  
  3. 添加以下信息 
  4.  
  5. 192.168.0.100 master 
  6.  
  7. 192.168.0.101 slave1 
  8.  
  9. 192.168.0.102 slave2  

3、安装JDK

 
  1. -- 解压jdk安装包 
  2.  
  3. # mkdir /usr/java 
  4.  
  5. # tar -zxvf jdk-8u131-linux-x64.tar.gx -C /usr/java 
  6.  
  7. -- 拷贝jdk至slave1及slave2中 
  8.  
  9. # scp -r /usr/java slave1:/usr 
  10.  
  11. # scp -r /usr/java slave2:/usr 
  12.  
  13. -- 设置jdk环境变量 
  14.  
  15. # vim /etc/environment 
  16.  
  17. JAVA_HOME=/usr/java/jdk1.8.0_131 
  18.  
  19. JRE_HOME=/usr/java/jdk1.8.0_131/jre 
  20.  
  21. # vim /etc/profile 
  22.  
  23. export JAVA_HOME=/usr/java/jdk1.8.0_131 
  24.  
  25. export JRE_HOME=${JAVA_HOME}/jre 
  26.  
  27. export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 
  28.  
  29. export PATH=$PATH:$JAVA_HOME/bin  

4、设置免密登陆

slave1

 
  1. # ssh-keygen -t rsa 
  2.  
  3. # cp ~/.ssh/id_rsa.pub ~/.ssh/slave1_id_rsa.pub 
  4.  
  5. # scp ~/.ssh/slave1_id_rsa.pub master:~/.ssh/  

slave2

 
  1. # ssh-keygen -t rsa 
  2.  
  3. # cp ~/.ssh/id_rsa.pub ~/.ssh/slave2_id_rsa.pub 
  4.  
  5. # scp ~/.ssh/slave2_id_rsa.pub master:~/.ssh/  

master

 
  1. # ssh-keygen -t rsa 
  2.  
  3. # cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
  4.  
  5. # cat ~/.ssh/slave1_id_rsa.pub >> ~/.ssh/authorized_keys 
  6.  
  7. # cat ~/.ssh/slave2_id_rsa.pub >> ~/.ssh/authorized_kyes 
  8.  
  9. -- 拷贝文件至slave1及slave2 
  10.  
  11. # scp ~/.ssh/authorized_keys slave1:~/.ssh 
  12.  
  13. # scp ~/.ssh/authorized_keys slave2:~/.ssh  

5、关闭防火墙及SELINUX

 
  1. -- 关闭防火墙 
  2.  
  3. # systemctl stop firewalld.service 
  4.  
  5. # systemctl disable firewalld.service 
  6.  
  7. -- 关闭SELINUX 
  8.  
  9. # vim /etc/selinux/config 
  10.  
  11. -- 注释掉 
  12.  
  13. #SELINUX=enforcing 
  14.  
  15. #SELINUXTYPE=targeted 
  16.  
  17. -- 添加 
  18.  
  19. SELINUX=disable  

二、Hadoop环境搭建

1、解压缩安装包及创建基本目录

 
  1. # tar -zxvf hadoop-2.7.3-x64.tar.gz -C /usr 
  2.  
  3. # cd /usr/hadoop-2.7.3 
  4.  
  5. # mkdir tmp logs hdf hdf/data hdf/name  

2、修改hadoop配置文件

 
  1. -- 修改 slaves 文件 
  2.  
  3. # vim /usr/hadoop-2.7.3/etc/hadoop/slaves 
  4.  
  5. -- 删除 localhost,添加 
  6.  
  7. slave1 
  8.  
  9. slave2 
  10.  
  11. -- 修改 core-site.xml 文件 
  12.  
  13. # vim /usr/hadoop-2.7.3/etc/hadoop/core-site.xml 
  14.  
  15. -- 在 configuration 节点中添加以下内容 
  16.  
  17. <property> 
  18.  
  19. <name>fs.default.name</name
  20.  
  21. <value>hdfs://master:9000</value> 
  22.  
  23. </property> 
  24.  
  25. <property> 
  26.  
  27. <name>hadoop.tmp.dir</name
  28.  
  29. <value>file:/usr/hadoop-2.7.3/tmp</value> 
  30.  
  31. </property> 
  32.  
  33. -- 修改 hdfs-site.xml 文件 
  34.  
  35. # vim /usr/hadoop-2.7.3/etc/hadoop/hdfs-site.xml 
  36.  
  37. -- 在 configuration 节点添加以下内容 
  38.  
  39. <property> 
  40.  
  41. <name>dfs.datanode.data.dir</name
  42.  
  43. <value>/usr/hadoop-2.7.3/hdf/data</value> 
  44.  
  45. <final>true</final> 
  46.  
  47. </property> 
  48.  
  49. <property> 
  50.  
  51. <name>dfs.namenode.name.dir</name
  52.  
  53. <value>/usr/hadoop-2.7.3/hdf/name</value> 
  54.  
  55. <final>true</final> 
  56.  
  57. </property> 
  58.  
  59. -- 修改 mapred-site.xml 文件 
  60.  
  61. # cp /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml 
  62.  
  63. # vim /usr/hadoop-2.7.3/etc/hadoop/mapred-site.xml 
  64.  
  65. -- 在 configuration 节点添加以下内容 
  66.  
  67. <property> 
  68.  
  69. <name>mapreduce.framework.name</name
  70.  
  71. <value>yarn</value> 
  72.  
  73. </property> 
  74.  
  75. <property> 
  76.  
  77. <name>mapreduce.jobhistory.address</name
  78.  
  79. <value>master:10020</value> 
  80.  
  81. </property> 
  82.  
  83. <property> 
  84.  
  85. <name>mapreduce.jobhistory.webapp.address</name
  86.  
  87. <value>master:19888</value> 
  88.  
  89. </property> 
  90.  
  91. -- 修改 yarn-site.xml 文件 
  92.  
  93. # vim /usr/hadoop-2.7.3/etc/hadoop/yarn-site.xml 
  94.  
  95. -- 在 configuration 节点添加以下内容 
  96.  
  97. <property> 
  98.  
  99. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name
  100.  
  101. <value>org.apache.mapred.ShuffleHandler</value> 
  102.  
  103. </property> 
  104.  
  105. <property> 
  106.  
  107. <name>yarn.resourcemanager.address</name
  108.  
  109. <value>master:8032</value> 
  110.  
  111. </property> 
  112.  
  113. <property> 
  114.  
  115. <name>yarn.resourcemanager.scheduler.address</name
  116.  
  117. <value>master:8030</value> 
  118.  
  119. </property> 
  120.  
  121. <property> 
  122.  
  123. <name>yarn.resourcemanager.resource-tracker.address</name
  124.  
  125. <value>master:8031</value> 
  126.  
  127. </property> 
  128.  
  129. <property> 
  130.  
  131. <name>yarn.resourcemanager.admin.address</name
  132.  
  133. <value>master:8033</value> 
  134.  
  135. </property> 
  136.  
  137. <property> 
  138.  
  139. <name>yarn.resourcemanager.webapp.address</name
  140.  
  141. <value>master:8088</value> 
  142.  
  143. </property>  

3、复制hadoop到slave节点

 
  1. # scp -r /usr/hadoop-2.7.3 slave1:/usr 
  2.  
  3. # scp -r /usr/hadoop-2.7.3 slave2:/usr  

4、配置 master 和 slave 的 hadoop 环境变量

 
  1. # vim /etc/profile 
  2.  
  3. -- 添加如下内容 
  4.  
  5. export HADOOP_HOME=/usr/hadoop-2.7.3 
  6.  
  7. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 
  8.  
  9. export HADOOP_LOG_DIR=/usr/hadoop-2.7.3/logs 
  10.  
  11. export YARN_LOG_DIR=$HADOOP_LOG_DIR 
  12.  
  13.  
  14.  
  15. -- 保存后执行 
  16.  
  17. # source /etc/profile 
  18.  
  19.  
  20. # vim ~/.bashrc 
  21.  
  22. -- 添加如下内容 
  23.  
  24. export HADOOP_PREFIX=/usr/hadoop-2.7.3/  

5、格式化 namenode

 
  1. # /usr/hadoop-2.7.3/sbin/hdfs namenode -format 

6、启动 hadoop

 
  1. # /usr/hadoop-2.7.3/sbin/start-all.sh 

到这一步已经成功完成了hadoop环境的搭建

三、Zookeeper 环境搭建

1、解压缩 zookeeper 安装包,并建立基本目录

 
  1. # tar -zxvf zookeeper-3.4.10.tar.gz -C /usr 
  2.  
  3. # mkdir /usr/zookeeper-3.4.10/data  

2、修改配置文件

 
  1. -- 复制配置文件模板 
  2.  
  3. # cp /usr/zookeeper-3.4.10/conf/zoo-sample.cfg /usr/zookeeper-3.4.10/conf/zoo.cfg 
  4.  
  5. -- 修改配置文件 
  6.  
  7. # vim /usr/zookeeper-3.4.10/conf/zoo.cfg 
  8.  
  9. -- 添加如下内容 
  10.  
  11. dataDir=/usr/zookeeper-3.4.10/data 
  12.  
  13. server.1=master:2888:3888 
  14.  
  15. server.2=slave1:2888:3888 
  16.  
  17. server.3=slave2:2888:3888 
  18.  
  19. -- 创建myid文件(master、slave1、slave2均需更新) 
  20.  
  21. # touch /usr/zookeeper-3.4.10/data/myid 
  22.  
  23. # vim /usr/zookeeper-3.4.10/myid 
  24.  
  25. -- 添加如下内容 
  26.  
  27. 1(master节点添加) 
  28.  
  29. 2(slave2节点添加) 
  30.  
  31. 3(slave3节点添加)  

3、启动zookeeper

 
  1. -- master、slave1、slave2增需要执行 
  2.  
  3. # cd /usr/zookeeper-3.4.10/bin 
  4.  
  5. # ./zkServer.sh start 
  6.  
  7. # ./zkServer.sh status  

到这一步完成了zookeeper环境的搭建

四、HBase环境搭建

1、解压缩 hbase 安装包

 
  1. # tar -zxvf hbase-1.2.5-bin.star.gz -C /usr 
  2.  
  3. # mkdir /usr/hbase-1.2.5-bin/logs  

2、修改配置文件

 
  1. # vim /usr/hbase-1.2.5/conf/hbase-env.sh 
  2.  
  3. -- 添加如下内容 
  4.  
  5. export JAVA_HOME=/usr/java/jdk1.8.0_131 
  6.  
  7. export HBASE_LOG_DIR=${HBASE_HOME}/logs 
  8.  
  9. export HBASE_MANAGES_ZK=false  

3、修改regionservers

 
  1. # vim /usr/hbase-1.2.5/conf/regionservers 
  2.  
  3. -- 删除localhost,新增如下内容 
  4.  
  5. master 
  6.  
  7. slave1 
  8.  
  9. slave2 

4、修改配置文件

 
  1. # vim /usr/hbase-1.2.5/conf/hbase-site.xml 
  2.  
  3. -- 在configuration节点下添加如下内容 
  4.  
  5. <property> 
  6.  
  7. <name>hbase.rootdir</name
  8.  
  9. <value>hdfs://master:9000/hbase</value> 
  10.  
  11. </property> 
  12.  
  13. <property> 
  14.  
  15. <name>hbase.cluster.distributed</name
  16.  
  17. <value>true</value> 
  18.  
  19. </property> 
  20.  
  21. <property> 
  22.  
  23. <name>hbase.zookeeper.quorum</name
  24.  
  25. <value>master,slave1,slave2</value> 
  26.  
  27. </property> 
  28.  
  29. <property> 
  30.  
  31. <name>hbase.zookeeper.property.dataDir</name
  32.  
  33. <value>/usr/zookeeper-3.4.10/data</value> 
  34.  
  35. </property> 
  36.  
  37. <property> 
  38.  
  39. <name>hbase.master</name
  40.  
  41. <value>hdfs://master:60000</value> 
  42.  
  43. </property>  

5、复制hbase到slave中

 
  1. # scp -r /usr/hbase-1.2.5 slave1:/usr 
  2.  
  3. # scp -r /usr/hbase-1.2.5 slave2:/usr  

6、启动hbase

 
  1. # /usr/hbase-1.2.5/bin/start-hbase.sh 

到这一步hbase环境搭建完成

作者:kolbe
来源:51CTO

转载地址:http://ucxbx.baihongyu.com/

你可能感兴趣的文章
【CQOI2011】放棋子
查看>>
采用JXL包进行EXCEL数据写入操作
查看>>
一周总结
查看>>
将txt文件转化为json进行操作
查看>>
线性表4 - 数据结构和算法09
查看>>
C语言数据类型char
查看>>
Online Patching--EBS R12.2最大的改进
查看>>
Binary Search Tree Iterator leetcode
查看>>
Oracle性能优化--DBMS_PROFILER
查看>>
uva-317-找规律
查看>>
Event事件的兼容性(转)
查看>>
我的2014-相对奢侈的生活
查看>>
zoj 2412 dfs 求连通分量的个数
查看>>
Java设计模式
查看>>
一文读懂 AOP | 你想要的最全面 AOP 方法探讨
查看>>
ndk制作so库,ndk-build不是内部或外部命令。。。的错误
查看>>
Spring Cloud 微服务分布式链路跟踪 Sleuth 与 Zipkin
查看>>
ORM数据库框架 SQLite 常用数据库框架比较 MD
查看>>
BNU 34990 Justice String (hash+二分求LCP)
查看>>
华为OJ 名字美丽度
查看>>