centos7中handoop2.8集群安装手记。hadoop2.8 安装教程、hadoop安装。
东西/原料
- Hadoop摆设筹办 当地vmware安装 Linux系统家族中 centos7
- Java对应版本1.8.0_121
- Hadoop版本2.8.0
1.根基设置装备摆设
- 1
起首安装一个centos7并设置装备摆设好java
Java情况设置装备摆设
我的java安装地址 /usr/java/ jdk1.8.0_121
编纂java情况 vi ~/.bash_profile
添加或点窜
export JAVA_HOME=/usr/java/jdk1.8.0_121
export PATH=$JAVA_HOME/bin:$PATH
执行 . ~/.bash_profile 使变量生效
2.ssh设置装备摆设
先 yum install ssh 安装
然后执行
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
生当作密匙
3.hadoop设置装备摆设
- 1
把下载好的hadoop解压出来。(我的地址在/roo目次,即完整地址/root/hadoop)
设置装备摆设情况变量
vi ~/.bash_profile
export HADOOP_HOME=/root/hadoop
export PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin
执行 . ~/.bash_profile 使变量生效
4.hadoop文件设置装备摆设
- 1
vim etc/hadoop/core-site.xml
在<configuration></configuration>中插手
<property>
<name>fs.defaultFS</name>
<value>hdfs://s204:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/root/hadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131702</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
- 2
vim etc/hadoop/hdfs-site.xml
在<configuration></configuration>中插手
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/root/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/root/hadoop/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>s204:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
- 3
vim etc/hadoop/mapred-site.xml
在<configuration></configuration>中插手
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>s204:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>s204:19888</value>
</property>
- 4
vim etc/hadoop/yarn-site.xml
在<configuration></configuration>中插手
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>s204:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>s204:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>s204:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>s204:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>s204:8088</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>6078</value>
</property>
- 5
vim etc/hadoop/yarn-env.sh
中找到 export JAVA_HOME 去失落注释
编纂java地址 export JAVA_HOME=/usr/java/jdk1.8.0_121
找到JAVA_HEAP_MAX=-Xmx1000m
改为 JAVA_HEAP_MAX=-Xmx1024m
- 6
vim etc/hadoop/slaves
清空添加 s204
收集设置装备摆设
- 1
我这ip是 192.168.5.9
编纂收集固心猿意马ip
vim /etc/sysconfig/network-scripts/ifcfg-ens33
指心猿意马固心猿意马ip
TYPE="Ethernet"
#BOOTPROTO="dhcp"
DEFROUTE="yes"
PEERDNS="yes"
PEERROUTES="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_PEERDNS="yes"
IPV6_PEERROUTES="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="b9fe1e5c-be20-47f1-a2d3-e12f5ddb6aa1"
DEVICE="ens33"
ONBOOT="yes"
IPADDR0=192.168.5.9
PREFIX0=24
GATEWAY0=192.168.5.2
DNS1=114.114.114.114
然后重启收集 systemctl restart network
执行 ip add 查看收集ip是否和设心猿意马的一致
Hadopp启动
- 1
进入/root/hadoop目次
执行编译
./bin/hdfs namenode –format
成果倒数第五行呈现
Exiting with status 0 则为当作功
然后启动
./sbin/start-all.sh
启动完毕执行./bin/hdfs dfsadmin –report 查看是否有节点
若是返回 无法毗连则为启动掉败
执行systemctl stop firewalld.service封闭防火墙 在浏览器输入s204:8088则可以看到hadoop界面
其他节点设置装备摆设
- 1
以上设置装备摆设完毕后,封闭centos7
然后完全克隆,在新克隆的系统中,更改ip地址和本家儿机名
此中hadoop设置装备摆设文件
etc/hadoop/hdfs-site.xml 中 <property>
<name>dfs.datanode.data.dir</name>
<value>file:/root/hadoop/hdfs/data</value>
</property>
的file地址不克不及一样。
我这边三个地址别离为
file:/root/hadoop/hdfs/data
file:/root/hadoop/hdfs/data/205
file:/root/hadoop/hdfs/data/206
克隆完毕,设置装备摆设文件和ip、本家儿机名点窜好后。在s204机械中编纂
vim etc/hadoop/slaves
插手
s205
s206
复制ssh令牌免密登录
例如复制到s205
scp ~/.ssh/authorized_keys root@s205:~/.ssh/
其他机械也一样操作
别的连个机械也要编译一下
然后在s204遏制hadoop
./sbin/stop-all.sh
再次启动./sbin/start-all.sh
在浏览器就可以看到三个节点。
来源:百闻(微信/QQ号:9397569),转载请保留出处和链接!
本文链接:https://www.ibaiwen.com/web/223721.html
- 上一篇: 微信怎样设置到账时间
- 下一篇: 怎么在手机上调试本地页面
- 热门文章
-
WB蒙特利尔(WB Montreal)——欧美十大最差视频游戏开发商
迅猛龙(Velociraptor)——欧美史前十大死亡动物
什么是果酱猫(What Marmalade Cats)?
神奇蜘蛛侠2(The Amazing Spider-Man 2)——欧美最佳蜘蛛侠电影
希瑟(Heather)——欧美十大最佳柯南灰歌
二人梭哈
faceu激萌怎么把瘦脸开到最大
奥兹奥斯本(Ozzy Osbourne)——欧美十大高估歌手
什么是小脑前下动脉(Anterior Inferior Cerebellar Artery)?
我应该知道康涅狄格州的什么(What Should I Know About Connecticut)?
- 热评文章
- 最新评论
-
- 最近访客
-
- 站点信息
-
- 文章总数:200248
- 页面总数:9
- 分类总数:1
- 标签总数:0
- 评论总数:0
- 浏览总数:497