第四章 完全分布式搭建

  • 192.168.1.80 Master
  • 192.168.1.82 Slave1
  • 192.168.1.84 Slave2

这里面我简单补充一下,其他相关知识,因为涉及到主机之间的安装文件传递,我们可以使用sftp命令进行.

  1. The authenticity of host '192.168.1.84 (192.168.1.84)' can't be established.
  2. ECDSA key fingerprint is 6c:00:fb:9b:43:6c:3b:29:96:98:a8:28:d1:23:11:13.
  3. Are you sure you want to continue connecting (yes/no)? yes
  4. Warning: Permanently added '192.168.1.84' (ECDSA) to the list of known hosts.
  5. chu888chu888@192.168.1.84's password:
  6. Connected to 192.168.1.84.
  7. sftp> put jdk-8u65-linux-x64.gz
  8. Uploading jdk-8u65-linux-x64.gz to /home/chu888chu888/jdk-8u65-linux-x64.gz
  9. jdk-8u65-linux-x64.gz 100% 173MB 28.8MB/s 00:06
  10. sftp>
  1. 创建hadoop用户组
  2. 创建hadoop用户
  3. hadoop用户添加权限,打开/etc/sudoers文件
  4. chu888chu888@ubuntu1:/$ sudo addgroup hadoop
  5. chu888chu888@ubuntu1:/$ sudo adduser -ingroup hadoop hadoop chu888chu888@ubuntu1:/$ sudo nano /etc/sudoers
  6. # User privilege specification
  7. root ALL=(ALL:ALL) ALL
  8. hadoop ALL=(ALL:ALL) ALL

所有的主机的hosts都需要修改,在这里我吃了一个大亏,如果在etc配置文件中直接用Ip的话,可能会出现Datanode链接不上Namenode的现象.

  1. hadoop@ubuntu-hadoop:/usr/local/hadoop/etc/hadoop$ more /etc/hosts
  2. 127.0.0.1 localhost
  3. 192.168.1.80 Master
  4. 192.168.1.82 Slave1
  5. # The following lines are desirable for IPv6 capable hosts
  6. ::1 localhost ip6-localhost ip6-loopback
  7. ff02::1 ip6-allnodes
  8. ff02::2 ip6-allrouters
  9. hadoop@ubuntu-hadoop:/usr/local/hadoop/etc/hadoop$

所有的主机都要进行操作

  1. 这个操作是要让Master节点可以在无密码的状态下SSH登录到各个Slave节点上
  2. 首先生成Master节点的公钥,在Master节点的终端中执行
  3. #如果没有该目录,先执行一次ssh localhost
  4. #删除之前生成的公钥
  5. $ rm ./id_rsa*
  6. #一直按回车就可以了
  7. $ ssh-keygen -t rsa
  8. Master节点需能无密码的SSH本机,在Master节点上执行
  9. $cat ./id_rsa.pub>>./authorized_keys
  10. 完成后可执行ssh Master验证一下,接着需要把Master节点的公钥上传输到Slave1节点上
  11. $sftp hadoop@Slave1
  12. 接着在Slave1节点上,将ssh公钥加入授权
  13. $mkdir ~/.ssh
  14. $rm ~/id_rsa.pub
  15. 如果有其他的Slave节点,也要执行将Master公钥传输到Slave节点,在Slave节点加入授权这两步.
  16. 这样,在Master节点就可以无密码SSH到各个Slave节点了.
  1. chu888chu888@ubuntu1:~$ sudo tar xvfz hadoop-2.6.0.tar.gz
  2. chu888chu888@ubuntu1:~$ sudo cp -r hadoop-2.6.0 /usr/local/hadoop
  3. chu888chu888@ubuntu1:~$ sudo chmod -R 775 /usr/local/hadoop/
  4. chu888chu888@ubuntu1:~$ sudo chown -R hadoop:hadoop /usr/local/hadoop

这里面有一个小的体验技巧,我建议将所有需要的环境变量配置加入到/etc/profile中,这是全局变量.

6配置集群环境192.168.1.80 NameNode

7文件slaves

文件 slaves,将作为 DataNode 的主机名写入该文件,每行一个,默认为 localhost,所以在伪分布式配置时,节点即作为 NameNode 也作为 DataNode。分布式配置可以保留 localhost,也可以删掉,让 Master 节点仅作为 NameNode 使用。
本教程让 Master 节点仅作为 NameNode 使用,因此将文件中原来的 localhost 删除,只添加一行内容:Slave1。

  1. hadoop@ubuntu-hadoop:~$ cd /usr/local/hadoop/etc/hadoop/
  2. hadoop@ubuntu-hadoop:/usr/local/hadoop/etc/hadoop$ sudo nano slaves
  3. [sudo] password for hadoop:
  4. hadoop@ubuntu-hadoop:/usr/local/hadoop/etc/hadoop$ more slaves
  5. Slave1
  6. hadoop@ubuntu-hadoop:/usr/local/hadoop/etc/hadoop$
  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://Master:9000</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>file:/usr/local/hadoop/tmp</value>
  9. <description>Abase for other temporary directories.</description>
  10. </property>
  11. </configuration>

9文件 hdfs-site.xml,dfs.replication 一般设为 3,但我们只有一个 Slave 节点,所以 dfs.replication 的值还是设为 1:

  1. <configuration>
  2. <property>
  3. <name>dfs.namenode.secondary.http-address</name>
  4. <value>Master:50090</value>
  5. </property>
  6. <property>
  7. <name>dfs.replication</name>
  8. <value>1</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <value>file:/usr/local/hadoop/tmp/dfs/name</value>
  13. </property>
  14. <property>
  15. <value>file:/usr/local/hadoop/tmp/dfs/data</value>
  16. </property>
  17. </configuration>

10文件 mapred-site.xml (可能需要先重命名,默认文件名为 mapred-site.xml.template),然后配置修改如下:

  1. <configuration>
  2. <property>
  3. <value>yarn</value>
  4. </property>
  5. <property>
  6. <name>mapreduce.jobhistory.address</name>
  7. <value>Master:10020</value>
  8. </property>
  9. <property>
  10. <name>mapreduce.jobhistory.webapp.address</name>
  11. <value>Master:19888</value>
  12. </property>
  13. </configuration>
  1. <configuration>
  2. <property>
  3. <name>yarn.resourcemanager.hostname</name>
  4. <value>Master</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services</name>
  8. <value>mapreduce_shuffle</value>
  9. </property>
  10. </configuration>

在其他Slave节点需要做的

首先通过sftp把Master配置好的hadoop打包,之后转输到Slave节点上,配置好环境变量JDK PATH SSH 基本上与Master是一样的.
配置好后,将 Master 上的 /usr/local/Hadoop 文件夹复制到各个节点上。因为之前有跑过伪分布式模式,建议在切换到集群模式前先删除之前的临时文件。
在 Master 节点上执行:

在Slave节点上执行:

  1. sudo rm -r /usr/local/hadoop # 删掉旧的(如果存在)
  2. sudo tar -xvfz ~/hadoop.master.tar.gz -C /usr/local
  3. sudo chown -R hadoop:hadoop /usr/local/hadoop

开始启动集群

  1. hdfs namenode -format # 首次运行需要执行初始化,之后不需要
  2. Master上执行:
  3. $start-dfs.sh
  4. $start-yarn.sh
  5. $mr-jobhistory-daemon.sh start historyserver
  6. Centos6.X需要关闭防火墙
  7. sudo service iptables stop # 关闭防火墙服务
  8. sudo chkconfig iptables off # 禁止防火墙开机自启,就不用手动关闭了
  9. Cent7
  10. systemctl stop firewalld.service # 关闭firewall
  11. systemctl disable firewalld.service # 禁止firewall开机启动

之后分别在Master与Slave上执行jps,会看到不同的结果.缺少任一进程都表示出错。另外还需要在 Master 节点上通过命令 hdfs dfsadmin -report 查看 DataNode 是否正常启动,如果 Live datanodes 不为 0 ,则说明集群启动成功。例如我这边一共有 1 个 Datanodes:

  1. $jps
  2. $hdfs dfsadmin -report
  3. 可以访问http://192.168.1.80:50070/ 查看结果

执行分布式的实验-分布式存储

  1. 执行分布式实例过程与伪分布式模式一样,首先创建 HDFS 上的用户目录:
  2. $ hdfs dfs -mkdir -p /user/hadoop
  3. /usr/local/hadoop/etc/hadoop 中的配置文件作为输入文件复制到分布式文件系统中:
  4. $ hdfs dfs -mkdir input
  5. $ hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml input

通过查看 DataNode 的状态(占用大小有改变),输入文件确实复制到了 DataNode 中,如下图所示:

执行分布式的实验-MapReduce

执行MapReduce作业

运行时的输出信息与伪分布式类似,会显示 Job 的进度。

可能会有点慢,但如果迟迟没有进度,比如 5 分钟都没看到进度,那不妨重启 Hadoop 再试试。若重启还不行,则很有可能是内存不足引起,建议增大虚拟机的内存,或者通过更改 YARN 的内存配置解决。
同样可以通过 Web 界面查看任务进度 Web 界面点击 “Tracking UI” 这一列的 History 连接,可以看到任务的运行信息,如下图所示: