一: 环境配置
- 1.1系统软件要求:
系统:CentOS 6.4 X64
软件:Hadoop-2.5.2.tar.gz
native-2.5.2.tar.gz
jdk-7u67-linux-x64.tar.gz
将所有软件安装上传到/home/hadoop/yangyang/ 下面
- 主机名配置:
192.168.3.1
192.168.3.2
192.168.3.3
- 角色分配处理
二:系统环境的初始化
- 2.1 三台虚拟机配置NTP 时间同步处理
以 配置 作为NTP SERVER, NTP 配置:
去网上同步时间
#加入开机自启动
#echo “ntpdate –u 202.112.10.36 ” >> /etc/rc.d/rc.local
#vim /etc/ntp.conf
#取消下面两行的#
#vim /etc/sysconfig/ntpd
增加:
#service ntpd restart
#chkconfig ntpd on
与 配置计划任务处理将从 同步时间
crontab –e
*/10 * * * * /usr/sbin/ntpdate
- 2.2 三台虚拟机配置jdk环境
安装jdk
tar -zxvf jdk-7u67-linux-x64.tar.gz
mv jdk-7u67-linux-x64 jdk
环境变量配置
#vim .bash_profile
到最后加上:
export JAVA_HOME=/home/hadoop/yangyang/jdk
export CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/home/hadoop/yangyang/hadoop
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:/bin
等所有软件安装部署完毕在进行
source .bash_profile
java –version
- 2.3:SSH 免密钥登陆:
ssh-keygen-------一种按回车键即可生成。(三台服务器一样)
slave1和slave2的配置
cd .ssh
scp id_rsa.pub hadoop
scp id_rsa.pub hadoop
maste的配置
cat id_rsa.pub >> authorized_keys
cat slave1.pub >> authorized_keys
cat slave2.pub >> authorized_keys
chmod 600 authorized_keys
scp authorized_keys hadoop@:/home/hadoop/.ssh/
scp authorized_keys hadoop:/home/hadoop/.ssh/
测试:
三:安装hadoop与配置处理
3.1 安装hadoop 与配置文件处理
tar -zxvf hadoop-2.5.2.tar.gz
mv hadoop-2.5.2 hadoop
cd /home/hadoop/yangyang/hadoop/etc/hadoop
3.2更换native 文件
rm -rf lib/native/*
tar –zxvf hadoop-native-2.5.2.tar.gz –C hadoop/lib/native
cd hadoop/lib/native/
编辑core-site.xml 文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://:8020</value>
</property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/yangyang/hadoop/data</value>
<description>hadoop_temp</description>
</property>
</configuration>
编辑hdfs-site.xml 文件:
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>:50070</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>:50090</value>
</property>
</configuration>
编辑mapred-site.xml
<configuration>
<property>
<name></name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>:19888</value>
</property>
</configuration>
编辑yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value></value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
</configuration>
编辑hadoop-env.sh 文件:
export JAVA_HOME=/home/hadoop/yangyang/jdk
export HADOOP_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmp
export HADOOP_SECURE_DN_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmp
编辑mapred-env.sh 文件:
export JAVA_HOME=/home/hadoop/yangyang/jdk
export HADOOP_MAPRED_PID_DIR=/home/hadoop/yangyang/hadoop/data/tmp
编辑yarn-env.sh 文件: vim yarn-env.sh
export JAVA_HOME=/home/hadoop/yangyang/jdk
编辑slaves 文件 vim slaves
3.3 同步到所有节点slave1和slave2
cd /home/hadoop/yangyang/
tar –zcvf hadoop.tar.gz hadoop
scp hadoop.tar.gz hadoop@192.168.3.2:/home/hadoop/yangyang/
scp hadoop.tar.gz hadoop@192.168.3.3:/home/hadoop/yangyang/
3.4 格式化文件系统HDFS
主机上执行:
cd hadoop/bin/
./hdfs namenode –format
3.5 启动hdfs
主机上执行:
cd hadoop/sbin/
./start-dfs.sh
3.6启动start-yarn.sh
cd hadoop/sbin/
./start-yarn.sh
3.7 启动日志功能:
cd hadoop/sbin/
./mr-jobhistory-daemon.sh start historyserver
3.8 参照分配表处理
主机:
主机:
主机
###四:环境测试 上面的HDFS
上的yarn
上面的jobhistory
hadoop 环境的测试与检查: 创建,上传,运行wordcount 检测