大数据培训新三板挂牌机构 股票代码:837906 | EN CN
异常解决方案—NameNode 宕机读写测试
异常解决方案—NameNode 宕机切换实验
异常解决方案—Data Node 配置
异常解决方案—Backup Node配置
异常解决方案—NameNode配置
异常解决方案—6.5.1异常情况分析
安装及配置
5NameNode安装及配置以及6BackupNode安装及配置
6.4.4虚拟机集群架设
6.4.3安装JDK
3.配置操作系统
2.创建虚拟机与安装操作系统
6.4构建实验环境
实验方案说明
故障切换机制
日志池(journal spool)机制
元数据操作情景分——BackupNode更新磁盘上的日志文件
元数据操作情景分——NameNode通过日志输出流......
元数据操作情景分——NameNode将日志写入日志文件
元数据操作情景分——NameNode更新内存镜像
元数据操作情景分——客户端执行命令流程
元数据操作情景分
Hadoop的Backup Node方案——运行机制分析(5)
Hadoop的Backup Node方案——运行机制分析(4)
Hadoop的Backup Node方案——运行机制分析(3)
Hadoop的Backup Node方案——运行机制分析(2)
Hadoop的Backup Node方案——运行机制分析(1)
Hadoop的Backup Node方案——系统架构
Hadoop的Backup Node方案—Backup Node 概述
元数据可靠性机制以及使用说明
Checkpoint 过程情景分析
元数据更新及日志写入情景分析
NameNode启动加载元数据情景分析
Hadoop的元数据备份机制的进行分析
元数据应用场景分析
Format情景分析
磁盘元数据文件
HDFS之代码分析——元数据结构
HDFS之内存元数据结构
什么是HDFS的元数据
Hadoop中DRDB方案和AvatarNode方案
Hadoop中常用各方案的对比
Hadoop的BackupNode方案
Hadoop的CheckpointNode方案
Hadoop的SecondaryNameNode方案
Hadoop的元数据备份方案
影响HDFS可用性的几个因素
什么是高可用性? 详细解析
HDFS系统架构简介
如何安装和配置Hadoop集群
如何在Windows下安装Hadoop
在MacOSX上安装与配置Hadoop
Linux下安装Hadoop的步骤
Hadoop的集群安全策略介绍
Hive的数据管理介绍
HBase的数据管理介绍
HDFS的数据管理介绍
Hadoop计算模型之 MapReduce 简介
Hadoop于分布式开发
Hadoop体系结构介绍
Hadoop的项目结构详解
一文读懂Hadoop

异常解决方案—Backup Node配置

于2018-01-24由小牛君创建

分享到:


6.5.3Backup Node配置

1.ssh无密码登录本地或远程节点

操作步骤请参考4.5.2中第1“ssh无密码登录本地或远程节点

2.Ucarp安装与配置

BackupNodeUcarp的安装与配置与NameNode大致相同,唯一不同的地方需要将/etc/ucarp.sh脚本--srcip后面的值修改为namenode1(BackupNode)的真实IP192.168.1.12,具体可参见“Ucarp安装与配置

3.安装Hadoop

1)远程复制Hadoop

NameNode(namenode0)远程复制HadoopBackup Node(namenode1)。首先修改/usr/local目录的权限,使得普通用户可以进行读写。

$sudo chmod 777 /usr/local

接下来在user用户下将NameNodeHadoop复制到BackupNode

$cd /usr/local

$scp –r hadoop-0.21.0 192.168.1.12:/usr/local/

2)添加Hadoop路径信息,配置/etc/profile,在最后加入下面两行:

export HADOOP_HOME=/usr/local/hadoop-0.21.0

export PATH=$HADOOP_HOME/bin:$PATH

3)配置mastersslaves文件。masters配置文件

192.168.1.12

slaves配置文件

192.168.1.13

192.168.1.14

192.168.1.15

192.168.1.16

4)配置/usr/local/hadoop-0.21.0/conf/core-site.sh

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://192.168.1.11:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value>

</property>

</configuration>

5)配置/usr/local/hadoop-0.21.0/conf/hdfs-site.sh

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<!-- special parameters for avatarnode -->

<configuration>

<property>

<name>dfs.http.address</name>

<value>192.168.1.11:50070</value>

</property>

<property>

<name>dfs.name.dir</name>

<value>/usr/local/hadoop/local/namenode</value>

</property>

<property>

<name>dfs.name.edits.dir</name>

<value>/usr/local/hadoop/local/editlog</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/local/hadoop/block</value>

</property>

</configuration>

注意:fs.default.namedfs.http.addressIP均配置为NameNodeIP地址

192.168.1.11,使得Backup Node可以访问NameNode

6)创建相关目录。

/usr/local/hadoop/tmp

/usr/local/hadoop/local/namenode

/usr/local/hadoop/local/editlog

/usr/local/hadoop/block

//hadoop临时目录

//镜像存储目录

//日志存储目录

//数据块存储目录

4.格式化

Backup Node不应被格式化,否则会报namespaceID不一致的错误。

5.启动测试

Backup Node(namenode1)的终端上执行。

$/usr/local/hadoop-0.21.0/bin/hadoop namenode –backup启动过程。