环境搭建
操作系统 Ubuntu-Server 11.10 64bit
JDK 1.6.0_31
机器名 IP 作用
wenbo00 192.168.182.130 NameNode, master, jobTracker
wenbo01 192.168.182.132 DataNode, slave , taskTracker
wenbo02 192.168.182.133 DataNode, slave , taskTracker
不要安装图形界面以节约内存,本人机器为Y470,使用VMware Player同时启动三个server,仅消耗60%的内存。
另外,保持每个server环境的一致,可以配好一台机器后使用VMWare Player进行镜像复制
在三台机器的/etc/hosts文件里添加下面内容
192.168.182.130 wenbo00
192.168.182.132 wenbo01
192.168.182.133 wenbo02
配置无密码登陆到NameNode
1.在NameNode上生成授权文件ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
2.将生成的id_dsa.pub写入授权文件 cat .ssh/id_dsa.pub >> .ssh/authorized_keys
3.将生成的id_dsa.pub文件copy到DataNode上,重复第二个步骤 scp .ss/id_dsa.pub root@192.168.182.132:/home/ssh
每台机器上安装hadoop并配置环境变量,向etc/profile加入
export HADOOP_HOME=/home/hadoop-1.0.1
export PATH=$HADOOP_HOME/bin:$PATH
配置每台机器hadoop的jdk,在HADOOP_HOME/conf/hadoop-env.sh中加入
export JAVA_HOME=/home/java/jdk1.6.0_31
在NameNode上修改/home/hadoop-1.0.1/conf/masters 和 /home/hadoop-1.0.1/conf/slaves文件
masters: 192.168.182.130
slaves: 192.168.182.132
192.168.182.133
修改/home/hadoop-1.0.1/conf/下的配置文件
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://wenbo00:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>wenbo00:9001</value>
</property>
</configuration>
三台机器上配置相同
配置完成后
在NameNode上启动hadoop start-all.sh
在NameNode上执行jps命令,显示如下
2713 NameNode
2971 JobTracker
3102 Jps
2875 SecondaryNameNode
在DataNode上执行jps命令,显示如下
2184 TaskTracker
2256 Jps
2076 DataNode
在NameNode下查看集群信息 hadoop dfsadmin -report,显示如下
Configured Capacity: 40159797248 (37.4 GB)
Present Capacity: 34723860480 (32.34 GB)
DFS Remaining: 34723794944 (32.34 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)
Name: 192.168.182.132:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 2717982705 (2.53 GB)
DFS Remaining: 17361887232(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012
Name: 192.168.182.133:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 36849 (35.99 KB)
Non DFS Used: 2717954063 (2.53 GB)
DFS Remaining: 17361907712(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012
分享到:
相关推荐
详细的hadoop2 伪分布式环境搭建以及eclipse部署。demo示例代码测试运行。文中有插件包。资源包等参考链接参考下载。
自己总结的Hadoop全分布模式环境搭建。
此文档在hadoop集群搭建完毕之后,在集群之外搭建一个hadoop集群的开发环境,用于编写hadoop实际处理程序,还包括了如何提交任务等。整体非常详细,如需要其他hadoop集群搭建资源可以联系我,免费给q:1487954071
本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...
Hadoop伪分布式集群环境搭建 Hadoop伪分布式集群环境搭建
Hadoop完全分布式环境搭建Hadoop完全分布式环境搭建Hadoop完全分布式环境搭建
涉及到了Hadoop2.0、Hbase、Sqoop、Flume、Hive、Zookeeper的具体环境搭建
Hadoop环境搭建Hadoop环境搭建 Hadoop环境搭建
五台虚拟机搭建Hadoop3.3.1高可用完全分布式环境
hadoop的环境搭建过程.方便第一次使用hadoop的同学.快速搭建环境
在Windows上使用Cygwin作为类Unix支撑环境来安装Hadoop, 网上介绍的还是比较多的。...其实,Hadoop环境搭建的主要内容是Cygwin的安装,估计要占总时间的2/3, 其它工作我会手把手的教你,come on,follow me!
hadoop集群环境的搭建
Hadoop2.x HA环境搭建Hadoop2.x HA环境搭建Hadoop2.x HA环境搭建
Hadoop完全分布式环境搭建文档,绝对原创,并且本人亲自验证并使用,图文并茂详细介绍了hadoop完全分布式环境搭建所有步骤,条例格式清楚,不能成功的,请给我留言!将给与在线支持!
hadoop1.x环境搭建及其入门,如需获取更多hadoop资源
CentOS 6.8 + Hadoop2.6.0集群环境搭建指南。
hadoop的环境搭建手册 分布式计算开源框架Hadoop介绍
1.linux系统:Ubuntu14.04 2.hadoop版本:hadoop-2.2.0 3.JDK版本:Jdk1.8.0_74
详细介绍了Hadoop伪分布模式环境的搭建步骤。