`

Linux下安装hadoop的步骤

阅读更多
一、前期准备:
下载hadoop: http://hadoop.apache.org/core/releases.html
http://hadoop.apache.org/common/releases.html
http://www.apache.org/dyn/closer.cgi/hadoop/core/
http://labs.xiaonei.com/apache-mirror/hadoop/core/hadoop-0.20.1/hadoop-0.20.1.tar.gz
http://labs.xiaonei.com/apache-mirror/hadoop/
二、硬件环境
共有3台机器,均使用的CentOS,Java使用的是jdk1.6.0。

三、安装JAVA6
sudo apt-get install sun-java6-jdk

/etc/environment
打开之后加入:#中间是以英文的冒号隔开,记得windows中是以英文的分号做为分隔的
CLASSPATH=.:/usr/local/java/lib
JAVA_HOME=/usr/local/java


三、配置host表
[root@hadoop ~]# vi /etc/hosts
127.0.0.1       localhost
192.168.13.100     namenode
192.168.13.108     datanode1
192.168.13.110     datanode2

[root@test ~]# vi /etc/hosts
127.0.0.1       localhost
192.168.13.100     namenode
192.168.13.108     datanode1

[root@test2 ~]# vi /etc/host
127.0.0.1       localhost
192.168.13.100     namenode
192.168.13.110     datanode2
添加用户和用户组
addgroup hadoop
adduser  hadoop
usermod -a -G hadoop hadoop
passwd hadoop

配置ssh:

服务端:
su hadoop
ssh-keygen  -t  rsa
cp id_rsa.pub authorized_keys

客户端
chmod 700 /home/hadoop
chmod 755 /home/hadoop/.ssh
su hadoop
cd /home
mkdir .ssh

服务端:
chmod 644 /home/hadoop/.ssh/authorized_keys
scp authorized_keys datanode1:/home/hadoop/.ssh/
scp authorized_keys datanode2:/home/hadoop/.ssh/

ssh datanode1
ssh datanode2

 如果ssh配置好了就会出现以下提示信息
The authenticity of host [dbrg-2] can't be established.
Key fingerpr is 1024 5f:a0:0b:65:d3:82:df:ab:44:62:6d:98:9c:fe:e9:52.
Are you sure you want to continue connecting (yes/no)?
  OpenSSH告诉你它不知道这台主机但是你不用担心这个问题你是第次登录这台主机键入“yes”这将把
这台主机“识别标记”加到“~/.ssh/know_hosts”文件中第 2次访问这台主机时候就不会再显示这条提示信


不过别忘了测试本机ssh dbrg-1
 


mkdir /home/hadoop/HadoopInstall
tar -zxvf hadoop-0.20.1.tar.gz -C /home/hadoop/HadoopInstall/
cd /home/hadoop/HadoopInstall/
ln  -s  hadoop-0.20.1  hadoop

export JAVA_HOME=/usr/local/java
export CLASSPATH=.:/usr/local/java/lib
export HADOOP_HOME=/home/hadoop/HadoopInstall/hadoop
export HADOOP_CONF_DIR=/home/hadoop/hadoop-conf
export PATH=$HADOOP_HOME/bin:$PATH

cd $HADOOP_HOME/conf/
mkdir /home/hadoop/hadoop-conf
cp hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml masters slaves /home/hadoop/hadoop-conf

vi $HADOOP_HOME/hadoop-conf/hadoop-env.sh


# The java implementation to use.  Required. --修改成你自己jdk安装的目录
export JAVA_HOME=/usr/local/java 
 
export  HADOOP_CLASSPATH=.:/usr/local/java/lib
# The maximum amount of heap to use, in MB. Default is 1000.--根据你的内存大小调整
export HADOOP_HEAPSIZE=200          

vi /home/hadoop/.bashrc
export JAVA_HOME=/usr/local/java
export CLASSPATH=.:/usr/local/java/lib
export HADOOP_HOME=/home/hadoop/HadoopInstall/hadoop
export HADOOP_CONF_DIR=/home/hadoop/hadoop-conf
export PATH=$HADOOP_HOME/bin:$PATH



配置

namenode

#vi $HADOOP_CONF_DIR/slaves
192.168.13.108
192.168.13.110

#vi $HADOOP_CONF_DIR/core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
<property>
   <name>fs.default.name</name>
   <value>hdfs://192.168.13.100:9000</value>
</property>
</configuration>

#vi $HADOOP_CONF_DIR/hdfs-site.xml 
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
<property>
  <name>dfs.replication</name>
  <value>3</value>
  <description>Default block replication.
  The actual number of replications can be specified when the file is created.
  The default is used if replication is not specified in create time.
  </description>
</property>
</configuration>


#vi $HADOOP_CONF_DIR/mapred-site.xml 

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
<property>
        <name>mapred.job.tracker</name>
        <value>192.168.13.100:11000</value>
   </property>
</configuration>
~                




在slave上的配置文件如下(hdfs-site.xml不需要配置):
[root@test12 conf]# cat core-site.xml 
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
   <property>
      <name>fs.default.name</name>
      <value>hdfs://namenode:9000</value>
   </property>
</configuration>

[root@test12 conf]# cat mapred-site.xml 
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
   <property>
        <name>mapred.job.tracker</name>
        <value>namenode:11000</value>
   </property>
</configuration>



启动
export PATH=$HADOOP_HOME/bin:$PATH

hadoop namenode -format
start-all.sh
停止stop-all.sh

在hdfs上创建danchentest文件夹,上传文件到此目录下
$HADOOP_HOME/bin/hadoop fs -mkdir danchentest
$HADOOP_HOME/bin/hadoop fs -put $HADOOP_HOME/README.txt danchentest

cd $HADOOP_HOME
hadoop jar hadoop-0.20.1-examples.jar wordcount  /user/hadoop/danchentest/README.txt output1
09/12/21 18:31:44 INFO input.FileInputFormat: Total input paths to process : 1
09/12/21 18:31:45 INFO mapred.JobClient: Running job: job_200912211824_0002
09/12/21 18:31:46 INFO mapred.JobClient:  map 0% reduce 0%
09/12/21 18:31:53 INFO mapred.JobClient:  map 100% reduce 0%
09/12/21 18:32:05 INFO mapred.JobClient:  map 100% reduce 100%
09/12/21 18:32:07 INFO mapred.JobClient: Job complete: job_200912211824_0002
09/12/21 18:32:07 INFO mapred.JobClient: Counters: 17
09/12/21 18:32:07 INFO mapred.JobClient:   Job Counters 
09/12/21 18:32:07 INFO mapred.JobClient:     Launched reduce tasks=1

查看输出结果文件,这个文件在hdfs上
[root@test11 hadoop]# hadoop fs -ls output1
Found 2 items
drwxr-xr-x   - root supergroup          0 2009-09-30 16:01 /user/root/output1/_logs
-rw-r--r--   3 root supergroup       1306 2009-09-30 16:01 /user/root/output1/part-r-00000

[root@test11 hadoop]# hadoop fs -cat output1/part-r-00000
(BIS),  1
(ECCN)  1

查看hdfs运行状态,可以通过web界面来访问http://192.168.13.100:50070/dfshealth.jsp;查看map-reduce信息,
可以通过web界面来访问http://192.168.13.100:50030/jobtracker.jsp;下面是直接命令行看到的结果。


出现08/01/25 16:31:40 INFO ipc.Client: Retrying connect to server: foo.bar.com/1.1.1.1:53567. Already tried 1 time(s).
的原因是没有格式化:hadoop namenode -format


分享到:
评论

相关推荐

    Linux系统上安装Hadoop的详细步骤

    Linux系统上安装Hadoop的详细步骤,该文档详细的描述了在linux上面如何安装hadoop,如何信息配置,初始化,启动hadoop等等,喜欢的朋友可以拿去使用

    hadoop 组件详细安装步骤

    大数据组件 详细安装步骤(linux配置 hadoop集群搭建 hive flume kafka spark zk 搭建安装)

    hadoop安装步骤

    hadoop安装详解步骤,里面详细介绍了linux安装hadoop的步骤,以及遇到的问题和解决方法!

    linux平台编译hadoop所需软件和详细步骤

    资源中包含linux平台编译Hadoop源码的所有软件和详细步骤: 1、下载安装各种软件库 yum -y install svn ncurses-devel gcc* yum -y install lzo-devel zlib-devel autoconf automake libtool cmake openssl-devel 2...

    linux下搭建hadoop环境步骤分享

    、tar xvzf hadoop-0.20.2.tar.gz3、安装JDK,从oracle网站上直接下载JDK,地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html4、chmod +x jdk-6u21-linux-i586.bin;./jdk-6u21-linux-i586....

    Linux中安装配置hadoop集群详细步骤

    本篇文章主要介绍了Linux中安装配置hadoop集群详细步骤,具有一定的参考价值,感兴趣的小伙伴们可以参考一下。

    hadoop1升级hadoop2步骤

    hadoop1升级到hadoop2具体步骤及方法

    linux下伪分布安装hadoop环境及问题处理

    linux下详细的hadoop环境安装步骤,处理方法,解释,对新手安装很有帮助

    linux下的hadoop集群搭建与相关配置

    详细的hadoop集群搭建步骤

    linux虚拟机搭建hadoop伪分布式集群

    搭建hadoop伪分布式集群的步骤,希望能帮到各位,多多

    Windows环境安装Hadoop.docx

    在Windows环境下直接安装和配置Apache Hadoop的过程相对复杂,因为Hadoop原生设计是面向Linux/Unix环境的。尽管如此,仍然可以在Windows上搭建一个用于学习和开发的单节点Hadoop环境。以下是简化版的在Windows上安装...

    Hadoop搭建全程步骤part5

    Hadoop搭建全程步骤:1.准备Linux环境;2.安装JDK;3.安装Hadoop;4.配置ssh免登陆

    Windows环境安装Hadoop.7z

    在Windows环境下直接安装和配置Apache Hadoop的过程相对复杂,因为Hadoop原生设计是面向Linux/Unix环境的。尽管如此,仍然可以在Windows上搭建一个用于学习和开发的单节点Hadoop环境。以下是简化版的在Windows上安装...

    干货-零基础安装Hadoop开发环境

    尽管安装其实很简单,书上有写到,官方网站也有 Hadoop 安装配置教程,但由于刚接触对 Linux 环境不熟悉。加上网上不少教程比较乱,导致新手折腾老几天愣是没装好,很是打击学习热情。本文主要介绍hadoop2.6版本的...

    hadoop安装与配置(完整板),linux安装

    很简单,很完善的步骤,有我操做时出现的错误,有解决办法,可以参考,这是我们上大数据实验课做的

    hadoop集群搭建步骤

    该文档提供了linux环境中搭建hadoop集群(大数据)的步骤,个人认为比较详细,供大家学习

    Win7中使用Eclipse连接虚拟机中的Linux中的Hadoop2.5.0经验总结

    Win7中使用Eclipse连接虚拟机中的Linux中的Hadoop2.5.0经验总结. 我自己测试在Hadoop2.5.0,但应该也能解决2.5.0以上版本问题,文档中包含解决步骤及所需要的包,如hadoop.dll及winutils.exe。还有一个修改过的...

    Linux下Hadoop伪分布式配置

    这是本人在单机上的Cent-OS系统中配置Hadoop-0.19.1伪分布式时的总结文档,但该文档也适合其他版本的Linux系统和目前各版本的Hadoop(Hadoop-0.20之后的版本配置文件hadoop-site.xml被拆分成了三个core-site.xml,...

    大数据技术原理及应用课实验1 熟悉常用的Linux操作和Hadoop操作 林子雨实验

    三、实验步骤(每个步骤下均需有运行截图) 1.熟悉常用的Linux操作 1)cd命令:切换目录 (1) 切换到目录“/usr/local” (2) 切换到当前目录的上一级目录 (3) 切换到当前登录Linux系统的用户的自己的主文件夹

    Linux 部署Hadoop

    最近在研究Hadoop,在度娘找了几百几千份文档,拼凑起来才勉强部署好,太耗时,太耗时,太耗时 现在我整理好我过程中的每一个步骤,供大家一起学习共勉。

Global site tag (gtag.js) - Google Analytics