技术分享 Hadoop-2.6.4完全分布式搭建
资源准备
- 准备4台 Linux 服务器要求:glibc 版本 >= 2.14
- 192.168.9.1
- 192.168.9.2
- 192.168.9.3
- 192.168.9.4
- 下载: hadoop-2.6.4
服务器配置
- 4台服务器分别创建用户hadoop
[email protected]# useradd hadoop
[email protected]# echo 'hadoop' | passwd --stdin hadoop
- 4台服务器分别配置 hosts
[email protected]# vi /etc/hosts
添加内容如下:
192.168.9.1 master
192.168.9.2 secmaster
192.168.9.3 slave0
192.168.9.4 slave1
- master 主机免密码登陆其他主机配置
- 在各个主机上生成 SSH 密钥
[email protected]$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
- 在 master 主机上copy公钥
[email protected]$ ssh-copy-id -i secmaster 输入密码:hadoop即copy公钥成功
[email protected]$ ssh-copy-id -i slave0 输入密码:hadoop即copy公钥成功
[email protected]$ ssh-copy-id -i slave1 输入密码:hadoop即copy公钥成功
- 测试ssh免登陆
在192.168.9.1主机上执行如下命令确保 master 可以实现对其他主机的免密码登陆,首次执行需要输入"yes" 确认
[email protected]$ ssh secmaster
[email protected]$ ssh slave0
[email protected]$ ssh slave1
- 在各个主机上生成 SSH 密钥
hadoop自身配置
- 在 master(192.168.9.1) 主机上解压 hadoop-2.6.4.tar.gz
[email protected]$ tar xvf hadoop-2.6.4.tar.gz
-
配置 etc/hadoop/core-site.xml
<configuration> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> <property> <name>hadoop.proxyuser.u0.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.u0.groups</name> <value>*</value> </property></configuration>
-
配置 etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>secmaster:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/dfs/data</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value></property></configuration>
-
配置 etc/hadoop/mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property></configuration>
-
配置etc/hadoop/yarn-site.xml
<configuration><!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property></configuration>
Master向各个节点同步配置完毕后的 hadoop 工程
[email protected]$ scp -r /home/hadoop/hadoop-2.6.4 [email protected]:/home/hadoop
[email protected]$ scp -r /home/hadoop/hadoop-2.6.4 [email protected]:/home/hadoop
[email protected]$ scp -r /home/hadoop/hadoop-2.6.4 [email protected]:/home/hadoop
格式化 namenode,启动 hadoop 所有组件
[[email protected]]$ bin/hadoop namenode -format
[[email protected]]$ sbin/start-all.sh
如果不出意外完全分布式的 hadoop cluster 已经运行起来了^_^
大数据时代,Hadoop培训、大数据培训、培训班,就选光环大数据!
大数据培训、人工智能培训、Python培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。 更多问题咨询,欢迎点击------>>>>在线客服!