博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
FreeBSD下安装配置Hadoop集群(四)
阅读量:6140 次
发布时间:2019-06-21

本文共 4074 字,大约阅读时间需要 13 分钟。

前面说过了NameNode,DataNode的配置方法,这次说Secondary的配置方法。hadoop为实现高可用,支持配置失效备份的Namenode,这样当主的Namenode挂掉了之后,可以从Secondary把数据恢复回去。可以理解为Mysql的Master和Slave,但是不同的是,hadoop的Secondary不能直接当Namenode使用,更多的时候是用它当namenode的数据恢复。
其实secondary的配置有些类似于Datanode
看下配置文件
core-site.xml
<?
xml
version
="1.0"
?>
<?
xml-stylesheet
type
="text/xsl"
href
="configuration.xsl"
?>
<!--
Put site-specific property overrides in this file. -->
<
configuration
>
    
<
property
>
        
<
name
>fs.default.name
</
name
>
        
<
value
>hdfs://hadoopmaster-177.tj:9000
</
value
>
<!--指定master地址-->
    
</
property
>
    
<
property
>
        
<
name
>fs.checkpoint.dir
</
name
>
        
<
value
>/opt/data/hadoop1/hdfs/namesecondary,/opt/data/hadoop2/hdfs/namesecondary
</
value
>
<!--其实这个比较重要,数据恢复全靠它-->
    
</
property
>
    
<
property
>
        
<
name
>fs.checkpoint.period
</
name
>
        
<
value
>1800
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>fs.checkpoint.size
</
name
>
        
<
value
>33554432
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>io.compression.codecs
</
name
>
        
<
value
>org.apache.hadoop.io.compress.DefaultCodec,com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache
.hadoop.io.compress.BZip2Codec
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>io.compression.codec.lzo.class
</
name
>
        
<
value
>com.hadoop.compression.lzo.LzoCodec
</
value
>
    
</
property
>
</
configuration
>
hdfs-site.xml
<?
xml
version
="1.0"
?>
<?
xml-stylesheet
type
="text/xsl"
href
="configuration.xsl"
?>
<!--
Put site-specific property overrides in this file. -->
<
configuration
>
    
<
property
>
        
<
name
>dfs.name.dir
</
name
>
        
<
value
>/opt/data/hadoop1/hdfs/name,/opt/data/hadoop2/hdfs/name
</
value
>
        
<
description
>    
</
description
>
    
</
property
>
    
<
property
>
        
<
name
>dfs.data.dir
</
name
>
        
<
value
>/opt/data/hadoop1/hdfs/data,/opt/data/hadoop2/hdfs/data
</
value
>
        
<
description
>
</
description
>
    
</
property
>
    
<
property
>
        
<
name
>dfs.http.address
</
name
>
        
<
value
>hadoopmaster-177.tj:50070
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>dfs.secondary.http.address
</
name
>
        
<
value
>hadoopslave-189.tj:50090
</
value
>
<!--注意这里-->
    
</
property
>
    
<
property
>
        
<
name
>dfs.replication
</
name
>
        
<
value
>3
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>dfs.datanode.du.reserved
</
name
>
        
<
value
>1073741824
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>dfs.block.size
</
name
>
        
<
value
>134217728
</
value
>
    
</
property
>
</
configuration
>
mapred-site.xml
<?
xml
version
="1.0"
?>
<?
xml-stylesheet
type
="text/xsl"
href
="configuration.xsl"
?>
<!--
Put site-specific property overrides in this file. -->
<
configuration
>
    
<
property
>
        
<
name
>mapred.job.tracker
</
name
>
        
<
value
>hadoopmaster-177.tj:9001
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>mapred.local.dir
</
name
>
        
<
value
>/opt/data/hadoop1/mapred/mrlocal
</
value
>
        
<
final
>true
</
final
>
    
</
property
>    
    
<
property
>
        
<
name
>mapred.system.dir
</
name
>
        
<
value
>/opt/data/hadoop1/mapred/mrsystem
</
value
>
        
<
final
>true
</
final
>
    
</
property
>    
    
<
property
>
        
<
name
>mapred.tasktracker.map.tasks.maximum
</
name
>
        
<
value
>12
</
value
>
        
<
final
>true
</
final
>
    
</
property
>    
    
<
property
>
        
<
name
>mapred.tasktracker.reduce.tasks.maximum
</
name
>
        
<
value
>4
</
value
>
        
<
final
>true
</
final
>
    
</
property
>    
    
<
property
>
        
<
name
>mapred.child.java.opts
</
name
>
        
<
value
>-Xmx1536M
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>mapred.compress.map.output
</
name
>
        
<
value
>true
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>mapred.map.output.compression.codec
</
name
>
        
<
value
>com.hadoop.compression.lzo.LzoCodec
</
value
>
    
</
property
>
    
<
property
>
        
<
name
>mapred.child.java.opts
</
name
>
        
<
value
>-Djava.library.path=/opt/hadoopgpl/native/Linux-amd64-64
</
value
>
    
</
property
>
</
configuration
>
然后masters文件也要指向master namenode的主机名,在这里也就是hadoopmaster-177.tj
slaves文件内容则仍是Datanode的主机名。
而真正的主namenode里面的conf/master文件则写从namenode的主机名
hadoopslave-189.tj
slaves不变。
意思就是主namenode的masters写secondary的主机名,从namenode的masters写primary的主机名。
这样,从namenode到datanode到secondary就完整了。可以开始真实的运行map/reduce运算了。如果namenode失效了,可以从secondary的checkpoint指定的路径里将数据恢复到namenode。

转载地址:http://zckya.baihongyu.com/

你可能感兴趣的文章
linux后台运行程序
查看>>
win7 vs2012/2013 编译boost 1.55
查看>>
IIS7如何显示详细错误信息
查看>>
Android打包常见错误之Export aborted because fatal lint errors were found
查看>>
Tar打包、压缩与解压缩到指定目录的方法
查看>>
配置spring上下文
查看>>
Python异步IO --- 轻松管理10k+并发连接
查看>>
Oracle中drop user和drop user cascade的区别
查看>>
登记申请汇总
查看>>
Office WORD如何取消开始工作右侧栏
查看>>
Android Jni调用浅述
查看>>
CodeCombat森林关卡Python代码
查看>>
第一个应用程序HelloWorld
查看>>
(二)Spring Boot 起步入门(翻译自Spring Boot官方教程文档)1.5.9.RELEASE
查看>>
Java并发编程73道面试题及答案
查看>>
企业级负载平衡简介(转)
查看>>
ICCV2017 论文浏览记录
查看>>
科技巨头的交通争夺战
查看>>
当中兴安卓手机遇上农行音频通用K宝 -- 卡在“正在通讯”,一直加载中
查看>>
Shell基础之-正则表达式
查看>>