操作场景
创建翼MapReduce集群时,用户可以按需选择多块数据盘,但组件配置中默认是1块。如需使用多块数据盘,需要用户将配置目录中的信息改为多块,详细操作方法请参见下述信息。
说明该能力适用于2.15.2及更高的翼MapReduce版本。
操作步骤
1、默认的配置文件
1)HDFS
配置文件:hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>/data01/hadoop/hdfs/namenode</value>
<description>namenode元数据存放位置</description>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data01/hdfs</value>
<description>设置datanode节点存储数据文件的本地路径</description>
</property>
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>0</value>
<description>决定停止数据节点提供服务允许卷的出错次数, 0则表示任务卷出错都要停止数据节点</description>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/data01/hadoop/hdfs/journal</value>
<description>存储journalnode edit文件的目录</description>
</property>
2)YARN
配置文件:yarn-site.xml
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>/data01/hadoop/yarn/log</value>
<description>Nodemanager本地数据盘日志存储目录, 使用逗号分隔, 一般个数与{nm_local-dirs}对应</description>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/data01/hadoop/yarn/local</value>
<description>Nodemanager本地数据盘存储目录, 使用逗号分隔</description>
</property>
配置文件:mapred-site.xml
<property>
<name>mapreduce.jobhistory.recovery.store.leveldb.path</name>
<value>/data01/hadoop/mapreduce/jhs</value>
<description>Jobhistory恢复信息本地存储路径</description>
</property>
3)Kafka
配置文件:Kafka_vars.yaml
log_dirs=/data01/kafka/data
配置文件:server.properties
log.dirs=/data01/kafka/data
2、如何修改配置文件
如果用户在下单阶段选择了多块数据盘,需要如何修改配置?
- 下单时选择的数据盘,在开通集群时数据盘会自动挂载,挂载后的目录按照/data01 /data02 /data03...,依次类推。
- 修改配置:各个组件使用的目录,需要用户在配置管理中,手动修改,并同步配置,然后重启相关的服务,具体的配置见下方。
- 创建目录机器上的目录:目前需要用户登录到机器上,手动执行目录的创建命令,并修改成对应的权限。
- 重启服务:配置,机器上的目录都修改之后,需要重启相关服务,让配置生效。请选择合适的时间进行服务的重启。
假如选择了2块数据盘。可以根据下面的方式进行修改组件的配置文件,并在对应的机器上,创建对应的目录。
1)HDFS
配置文件:hdfs-site.xml
影响的配置项:
- DataNode 使用的数据盘:dfs.datanode.data.dir 和fs.datanode.failed.volumes.tolerated。
- dfs.datanode.data.dir 配置成磁盘的个数,中间使用分号;分割。例如:2块盘则配置成/data01/hdfs;/data02/hdfs;3块盘则配置成/data01/hdfs;/data02/hdfs;/data03/hdfs。
- dfs.datanode.failed.volumes.tolerated 值 < 数据盘个数。例如:当数据盘个数 = 1 时,则dfs.datanode.failed.volumes.tolerated = 0;数据盘=2时,dfs.datanode.failed.volumes.tolerated 可以配置成0或者1。
修改配置
在 Manager 页面,集群服务 -> HDFS集群 -> 配置管理,找到 defualt 分组下的hdfs-site.xml 文件; 搜索配置项dfs.datanode.data.dir 和dfs.datanode.failed.volumes.tolerated ,按下面的配置进行修改。
修改后保存配置文件,然后点击配置同步。
<property>
<name>dfs.datanode.data.dir</name>
<value>/data01/hdfs;/data02/hdfs</value>
<description>设置datanode节点存储数据文件的本地路径</description>
</property>
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>1</value>
<description>决定停止数据节点提供服务允许卷的出错次数, 0则表示任务卷出错都要停止数据节点</description>
</property>
创建目录机器上的目录
# 登录每台HDFS-DataNode的机器
# 创建目录,并修改权限
sudo mkdir -p /data02/hdfs
sudo chown hdfs:hadoop /data02/hdfs
sudo chmod 700 /data02/hdfs
重启服务
在 Manager 页面,进入服务管理,选择 HDFS 集群,DataNode,重启 DataNode 服务。请选择合适的时间进行服务的重启。
2)YARN
配置文件:yarn-site.xml
影响的配置项:
- NodeManager 使用的数据盘:yarn.nodemanager.log-dirs 和yarn.nodemanager.local-Dirs。
- 配置成磁盘的个数,如有2块数据盘,yarn.nodemanager.log-dirs 配置成/data01/hadoop/yarn/log;/data02/hadoop/yarn/log。
修改配置
在 Manager 页面,集群服务 -> 配置管理,修改yarn-site.xml 文件,按上述配置修改。
创建目录机器上的目录
# 登录每台YARN-NodeManager的机器
# 创建目录,并修改权限
sudo mkdir -p /data02/hadoop/yarn/log
sudo mkdir -p /data02/hadoop/yarn/local
sudo chown yarn:hadoop /data02/hadoop/yarn/log
sudo chown yarn:hadoop /data02/hadoop/yarn/local
sudo chmod 755 /data02/hadoop/yarn/log
sudo chmod 755 /data02/hadoop/yarn/local
重启服务
在Manager页面,进入服务管理,选择YARN集群,NodeManager,重启NodeManager服务。请选择合适的时间进行服务的重启。
3)Kafka
配置文件:Kafka_vars.yaml
修改的配置项:
- log_dirs ,配置成磁盘的个数。例如:有2块数据盘,log_dirs配置成/data01/kafka/data;/data02/kafka/data。
配置文件:server.properties
影响的配置项:
- log.dirs ,配置成磁盘的个数,如有2块数据盘,log.dirs 配置成/data01/kafka/data;/data02/kafka/data。
修改配置
在 Manager 页面,集群服务->配置管理,修改 Kafka_vars.yaml 和 server.properties 文件,按上述配置修改。
创建目录机器上的目录
# 登录每台Kafka-BrokerServer的机器
# 创建目录,并修改权限
sudo mkdir -p /data02/kafka/data
sudo chown kafka:kafka /data02/kafka/data
重启服务
在Manager页面,进入服务管理,选择Kafka集群,BrokerServer,重启BrokerServer服务。请选择合适的时间进行服务的重启。