当前位置:网站首页 > 创业 > 正文

hadoop2.8安装教程

0 张子豪 张子豪 2025-10-11 12:54 1

centos7中handoop2.8集群安装手记。hadoop2.8 安装教程、hadoop安装。

东西/原料

  • Hadoop摆设筹办 当地vmware安装 Linux系统家族中 centos7
  • Java对应版本1.8.0_121
  • Hadoop版本2.8.0

1.根基设置装备摆设

  1. 1

    起首安装一个centos7并设置装备摆设好java

    Java情况设置装备摆设

    我的java安装地址 /usr/java/ jdk1.8.0_121

     

    编纂java情况 vi ~/.bash_profile

    添加或点窜

    export JAVA_HOME=/usr/java/jdk1.8.0_121

    export PATH=$JAVA_HOME/bin:$PATH

    执行 . ~/.bash_profile 使变量生效

2.ssh设置装备摆设

  • 先 yum install ssh  安装

     

    然后执行

    ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

    生当作密匙

3.hadoop设置装备摆设

  1. 1

    把下载好的hadoop解压出来。(我的地址在/roo目次,即完整地址/root/hadoop)

     

    设置装备摆设情况变量

    vi ~/.bash_profile

    export HADOOP_HOME=/root/hadoop

    export PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin

    执行 . ~/.bash_profile 使变量生效

4.hadoop文件设置装备摆设

  1. 1

    vim etc/hadoop/core-site.xml

     

    在<configuration></configuration>中插手

    <property>

            <name>fs.defaultFS</name>

            <value>hdfs://s204:9000</value>

        </property>

        <property>

            <name>hadoop.tmp.dir</name>

            <value>file:/root/hadoop/tmp</value>

        </property>

        <property>

            <name>io.file.buffer.size</name>

            <value>131702</value>

        </property>

     <property>

            <name>hadoop.proxyuser.hadoop.hosts</name>

            <value>*</value>

        </property>

     

        <property>

            <name>hadoop.proxyuser.hadoop.groups</name>

            <value>*</value>

        </property>

  2. 2

    vim etc/hadoop/hdfs-site.xml

    在<configuration></configuration>中插手

     

    <property>

            <name>dfs.namenode.name.dir</name>

            <value>file:/root/hadoop/hdfs/name</value>

        </property>

        <property>

            <name>dfs.datanode.data.dir</name>

            <value>file:/root/hadoop/hdfs/data</value>

        </property>

        <property>

            <name>dfs.replication</name>

            <value>3</value>

        </property>

        <property>

            <name>dfs.namenode.secondary.http-address</name>

            <value>s204:9001</value>

        </property>

        <property>

    <name>dfs.webhdfs.enabled</name>

    <value>true</value>

    </property>

     

  3. 3

    vim etc/hadoop/mapred-site.xml

    在<configuration></configuration>中插手

     

    <property>

            <name>mapreduce.framework.name</name>

            <value>yarn</value>

        </property>

        <property>

            <name>mapreduce.jobhistory.address</name>

            <value>s204:10020</value>

        </property>

        <property>

            <name>mapreduce.jobhistory.webapp.address</name>

            <value>s204:19888</value>

        </property>

     

  4. 4

    vim etc/hadoop/yarn-site.xml

    在<configuration></configuration>中插手

    <property>

            <name>yarn.nodemanager.aux-services</name>

            <value>mapreduce_shuffle</value>

        </property>

        <property>

            <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

            <value>org.apache.hadoop.mapred.ShuffleHandler</value>

        </property>

        <property>

            <name>yarn.resourcemanager.address</name>

            <value>s204:8032</value>

        </property>

        <property>

            <name>yarn.resourcemanager.scheduler.address</name>

            <value>s204:8030</value>

        </property>

        <property>

            <name>yarn.resourcemanager.resource-tracker.address</name>

            <value>s204:8031</value>

        </property>

        <property>

            <name>yarn.resourcemanager.admin.address</name>

            <value>s204:8033</value>

        </property>

        <property>

            <name>yarn.resourcemanager.webapp.address</name>

            <value>s204:8088</value>

        </property>

        <property>

            <name>yarn.nodemanager.resource.memory-mb</name>

            <value>6078</value>

        </property>

  5. 5

    vim etc/hadoop/yarn-env.sh

     

    中找到 export JAVA_HOME 去失落注释

    编纂java地址 export JAVA_HOME=/usr/java/jdk1.8.0_121

     

    找到JAVA_HEAP_MAX=-Xmx1000m

    改为 JAVA_HEAP_MAX=-Xmx1024m

     

     

  6. 6

    vim etc/hadoop/slaves

     

    清空添加 s204

     

收集设置装备摆设

  1. 1

    我这ip是 192.168.5.9

     

    编纂收集固心猿意马ip

    vim /etc/sysconfig/network-scripts/ifcfg-ens33

     

    指心猿意马固心猿意马ip

     

    TYPE="Ethernet"

    #BOOTPROTO="dhcp"

    DEFROUTE="yes"

    PEERDNS="yes"

    PEERROUTES="yes"

    IPV4_FAILURE_FATAL="no"

    IPV6INIT="yes"

    IPV6_AUTOCONF="yes"

    IPV6_DEFROUTE="yes"

    IPV6_PEERDNS="yes"

    IPV6_PEERROUTES="yes"

    IPV6_FAILURE_FATAL="no"

    IPV6_ADDR_GEN_MODE="stable-privacy"

    NAME="ens33"

    UUID="b9fe1e5c-be20-47f1-a2d3-e12f5ddb6aa1"

    DEVICE="ens33"

    ONBOOT="yes"

    IPADDR0=192.168.5.9

    PREFIX0=24

    GATEWAY0=192.168.5.2

    DNS1=114.114.114.114

     

    然后重启收集 systemctl  restart  network

     

    执行 ip add  查看收集ip是否和设心猿意马的一致

Hadopp启动

  1. 1

     

    进入/root/hadoop目次

     

    执行编译

    ./bin/hdfs namenode –format

     

    成果倒数第五行呈现

    Exiting with status 0 则为当作功

     

    然后启动

    ./sbin/start-all.sh

     

    启动完毕执行./bin/hdfs dfsadmin –report 查看是否有节点

    若是返回 无法毗连则为启动掉败

     

    执行systemctl stop firewalld.service封闭防火墙  在浏览器输入s204:8088则可以看到hadoop界面

     

其他节点设置装备摆设

  1. 1

    以上设置装备摆设完毕后,封闭centos7

    然后完全克隆,在新克隆的系统中,更改ip地址和本家儿机名

    此中hadoop设置装备摆设文件

    etc/hadoop/hdfs-site.xml  中 <property>

            <name>dfs.datanode.data.dir</name>

            <value>file:/root/hadoop/hdfs/data</value>

    </property>

     

    的file地址不克不及一样。

    我这边三个地址别离为

    file:/root/hadoop/hdfs/data

    file:/root/hadoop/hdfs/data/205

    file:/root/hadoop/hdfs/data/206

     

    克隆完毕,设置装备摆设文件和ip、本家儿机名点窜好后。在s204机械中编纂

    vim etc/hadoop/slaves

    插手

    s205

    s206

    复制ssh令牌免密登录

    例如复制到s205

    scp ~/.ssh/authorized_keys root@s205:~/.ssh/

    其他机械也一样操作

     

    别的连个机械也要编译一下

     

    然后在s204遏制hadoop

     

    ./sbin/stop-all.sh

     

    再次启动./sbin/start-all.sh

     

    在浏览器就可以看到三个节点。

     

     

来源:百闻(微信/QQ号:9397569),转载请保留出处和链接!


本文链接:https://www.ibaiwen.com/web/223721.html

张子豪

张子豪

TA很懒,啥都没写...

@百闻娱乐 本站部分内容转自互联网,若有侵权等问题请及时与本站联系,我们将在第一时间删除处理。 | 粤ICP备2024343649号 | (地图