搭建Hadoop开发环境

编辑:光环大数据 来源: 互联网 时间: 2017-11-09 14:15 阅读:

搭建hadoop开发环境

环境

ubuntu 16.04

软件列表

软件版本路径JAVA JDK1.8.0_102/usr/local/javaHadoop2.8.1/usr/local/hadoop-2.8.1

配置步骤

  1. 单独创建一个系统用户名Hadoop
    1. 使用useradd命令创建hadoop用户

      sudo useradd hadoop -m -r -s /bin/bash
    2. 为hadoop用户设置密码

      sudo passwd hadoop
    3. 给予用户系统及管理员权限

      sudo vi /etc/sudoers #编辑权限管理文件#root ALL=(ALL:ALL) ALL 后添加Hadoop权限设置hadoop ALL=(ALL:ALL) ALL #给予系统权限
  2. 配置SSH服务并设置免密码登录
    1. 安装ssh服务

      sudo apt-get install openssh-server
    2. 利用ssh-keygen命令生成密钥

      #采用rsa密钥类型生成密钥ssh-keygen -t rsa

      ps: ssh-keygen参数说明

    3. 配置本机ssh无密码登录

      #进入.ssh目录下cd ~/.ssh#把id_rsa.pub文件内容添加到授权文件中cat id_rsa.pub >> authorized_keys#测试无密码登录ssh localhost
  3. 安装Java开发环境
    1. 从官网获取安装包

      #不需要验证wget --no-check-certificate --no-cookies --header "Cookie: oraclelicense=accept-securebackup-cookie" http://download.oracle.com/otn-pub/java/jdk/8u131-b11/d54c1d3a095b4ff2b6607d096fa80163/jdk-8u131-linux-x64.tar.gz
    2. 解压文件并复制到/usr/local目录下

      tar -xvf jdk-8u131-linux-x64.tar.gzsudo cp jdk1.80_131 /usr/local/
    3. 配置java环境变量

      #打开系统环境配置文件sudo vi /etc/profile#在profile文件最后增加以下内容export JAVA_HOME=/usr/local/jdk_1.80_131export PATH= $JAVA_HOME/bin:$PATHexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar#使配置生效source /etc/profile#检查Java是否已经安装好java -version
  4. 安装Hadoop
    1. 从 官网 获取安装包

      wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.1/hadoop-2.8.1.tar.gz
    2. 解压安装包并copy到/usr/local目录下

      #解压hadoop安装包tar -xvf hadoop-2.8.1.tar.gz#移动Hadoop文件夹到/usr/local目录下sudo mv hadoop-2.8.1 /usr/local
    3. 添加hadoop环境变量

      #打开环境配置文件sudo vi /etc/profile#添加hadoop环境export HADOOP_HOME=/usr/local/hadoop-2.8.1export PATH = $HADOOP_HOME/bin:$PATH:$HADOOP_HOME/sbin#检查hadoop环境是否配置正确source /etc/profile #使配置生效hadoop version #查看hadoop版本信息
    4. 配置hadoop配置文件

      1. 配置hadoop-env.sh文件

        #修改hadoop-env.sh JAVA_HOME路径地址export JAVA_HOME=/usr/local/jdk1.80_131
      2. 配置core-site.xml

        <configuration>    <!-- 指定HDFS的namenode的通信地址 -->    <property>        <name>fs.default.name</name>        <value>hdfs://hadoop:9000</value>    </property>        <!-- 指定hadoop运行时产生文件的存放目录 -->    <property>        <name>hadoop.tmp.dir</name>        <value>file:/usr/local/hadoop-2.8.1/tmp</value>    </property>        <!--指定文件存储的大小默认64M-->    <property>    <name>io.file.buffer.size</name>    <value>131072</value>   </property></configuration>
      3. 配置hdfs-site.xml

        <configuration>    <!-- 配置HDFS分片的数量 -->    <property>        <name>dfs.replication</name>        <value>1</value>    </property>    <!--配置namenode本地存储路径-->    <property>       <name>dfs.namenode.name.dir</name>       <value>file:/usr/local/hadoop-2.8.1/tmp/dfs/name</value>    </property>    <!--DataNode在本地文件系统中存放块的路径-->    <property>       <name>dfs.datanode.data.dir</name>       <value>file:/usr/local/hadoop-2.8.1/tmp/dfs/data</value>    </property></configuration>
      4. 配置yarn-site.xml

        <configuration>    <!-- reducer取数据的方式是mapreduce_shuffle -->    <property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value>    </property></configuration>
      5. 配置mapred-site.xml

        <configuration>  <!-- tracker地址 -->  <property>    <name>mapred.job.tracker</name>    <value>主机IP地址:9001</value>  </property>  <!-- 通知框架MR使用YARN -->   <property>        <name>mapreduce.framework.name</name>        <value>yarn</value>   </property></configuration>
    5. 格式化集群

      hdfs namenode -format
    6. 启动hadoop

      start-all.sh
    7. 打开浏览器访问50070端口查看hadoop

       

        大数据时代Hadoop培训大数据培训培训班,就选光环大数据!


大数据培训、人工智能培训、Python培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。 更多问题咨询,欢迎点击------>>>>在线客服

你可能也喜欢这些

在线客服咨询

领取资料

X
立即免费领取

请准确填写您的信息

点击领取
#第三方统计代码(模版变量) '); })();
'); })();