博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop2.4.1分布式安装
阅读量:6400 次
发布时间:2019-06-23

本文共 4524 字,大约阅读时间需要 15 分钟。

hot3.png

1、做好下文中的所有配置:。

2、Hadoop2.x的发行版中有个小问题:libhadoop.so.1.0.0在64位OS中存在问题,因为它是32位的,在64位OS中hadoop启动时会报一个WARN的日志。这个包的作用是调用native的api,可以提高hadoop的性能,如果这个包失效,那就是使用jvm做压缩等工作,效率就会很低。处理方法就是重新编译Hadoop,见xxx(link  article)。

3、在打算做namenode的机器上,wget或其他方式下载hadoop的压缩包,并解压到本地指定目录。下载解压命令参考

4、各种配置文件和hadoop1会有所不同,共有七个文件,以下分别描述。

  • /hadoop-2.4.1/etc/hadoop/hadoop-env.sh

# The java implementation to use.export JAVA_HOME=${JAVA_HOME}

  • /hadoop-2.4.1/etc/hadoop/yarn-env.sh

# some Java parameters# export JAVA_HOME=/home/y/libexec/jdk1.6.0/if [ "$JAVA_HOME" != "" ]; then  #echo "run java in $JAVA_HOME"  JAVA_HOME=$JAVA_HOMEfiif [ "$JAVA_HOME" = "" ]; then  echo "Error: JAVA_HOME is not set."  exit 1fiJAVA=$JAVA_HOME/bin/javaJAVA_HEAP_MAX=-Xmx512m#默认的heap_max是1000m,我的虚拟机没这么大内存,所以改小了

  • /hadoop-2.4.1/etc/hadoop/slaves

#写入你slave的节点。如果是多个就每行一个,写入host名bd24bd25

  • /hadoop-2.4.1/etc/hadoop/core-site.xml

  
    
fs.defaultFS
    
hdfs://bd23:9000
  
  
    
io.file.buffer.size
    
131072
  
  
    
hadoop.tmp.dir
    
file:/home/wukong/a_usr/hadoop-2.4.1/tmp
    
Abase for other temporary directories.
  
  
    
hadoop.proxyuser.hduser.hosts
    *  
  
    
hadoop.proxyuser.hduser.groups
*
  

  • hdfs-site.xml

  
    
dfs.namenode.secondary.http-address
    
bd23:9001
  
  
    
dfs.namenode.name.dir
    
file:/home/wukong/a_usr/hadoop-2.4.1/name
  
  
    
dfs.datanode.data.dir
    
file:/home/wukong/a_usr/hadoop-2.4.1/data
  
  
    
dfs.replication
    
1
  
  
    
dfs.webhdfs.enabled
    
true
  

  • mapred-site.xml

  
    
mapreduce.framework.name
    
yarn
  
  
    
mapreduce.jobhistory.address
    
bd23:10020
  
  
    
mapreduce.jobhistory.webapp.address
    
bd23.19888
  

  • yarn-site.xml

  
    
yarn.nodemanager.aux-services
    
mapreduce_shuffle
  
  
    
yarn.nodemanager.aux-services.mapreduce.shuffle.class
    
org.apache.hadoop.mapred.ShuffleHandler
  
  
    
yarn.resourcemanager.address
    
bd23:8032
  
  
    
yarn.resourcemanager.scheduler.address
    
bd23:8030
  
  
    
yarn.resourcemanager.resource-tracker.address
    
bd23:8031
  
  
    
yarn.resourcemanager.admin.address
    
bd23:8033
  
  
    
yarn.resourcemanager.webapp.address
    
bd23:8088
  

3、将hadoop目录拷贝到所有主机。远程拷贝的方法见

4、格式化

[wukong@bd23 hadoop-2.4.1]$ ./bin/hdfs namenode -format

      看到如下输出就证明成功了

14/07/31 13:58:30 INFO common.Storage: Storage directory /home/wukong/a_usr/hadoop-2.4.1/name has been successfully formatted.

5、启动dfs

[wukong@bd23 hadoop-2.4.1]$ ./sbin/start-dfs.sh

      看到如下输出就证明成功了

Starting namenodes on [bd23]bd23: starting namenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-namenode-bd23.outbd24: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd24.outbd25: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd25.outStarting secondary namenodes [bd23]bd23: starting secondarynamenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-secondarynamenode-bd23.out

6、使用jps查看机器启动的进程情况。正常情况下master上应该有namenode和sencondarynamenode。slave上有datanode。

7、启动yarn。使用脚本

[wukong@bd23 hadoop-2.4.1]$ ./sbin/start-yarn.sh

8、使用jps查看进程情况。master上应该有namenode, sencondarynamenode, ResourceManager,slave上应该有datanode, nodeManager。

补充说明:

1、hadoop2中使用start-all.sh的时候,会提示脚本已过期,请使用start-dfs.sh。但是还是会启动起来hdfs和yarn。

2、一张值得注意的图

215732_RKAo_991164.png

转载于:https://my.oschina.net/allman90/blog/296611

你可能感兴趣的文章
Linux下的Tftp服务
查看>>
C#将集合和Json格式互相转换的几种方式
查看>>
java连接数据库并操作
查看>>
安装.net framework 4.0时提示HRESULT 0xc8000222
查看>>
信息熵
查看>>
集群下文件同步问题
查看>>
ASA 5510 V821 EASY ×××配置
查看>>
ubuntu server 更换源
查看>>
SQL SERVER 2008安装
查看>>
EXT中的gridpanel自适应窗口的方法
查看>>
【转】CSRF 攻击的应对之道
查看>>
unary operator expected
查看>>
IPC之共享内存
查看>>
新加坡之旅
查看>>
IBM X3650 M3服务器上RAID配置实战
查看>>
Mysql DBA 高级运维学习之路-索引知识及创建索引的多种方法实战
查看>>
go语言与java nio通信,解析命令调用上下文拉起ffmpeg,并引入livego做的简单流媒体服务器...
查看>>
JavaScript面向对象轻松入门之多态(demo by ES5、ES6、TypeScript)
查看>>
mysql 存储过程创建
查看>>
【数据结构】线性表(一):顺序列表
查看>>