﻿<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/"><channel><title>BlogJava-西瓜地儿-随笔分类-Hadoop</title><link>http://www.blogjava.net/ashutc/category/46711.html</link><description>j2ee</description><language>zh-cn</language><lastBuildDate>Sat, 23 Oct 2010 06:29:51 GMT</lastBuildDate><pubDate>Sat, 23 Oct 2010 06:29:51 GMT</pubDate><ttl>60</ttl><item><title>分布式计算开源框架Hadoop介绍</title><link>http://www.blogjava.net/ashutc/archive/2010/10/22/335890.html</link><dc:creator>西瓜</dc:creator><author>西瓜</author><pubDate>Fri, 22 Oct 2010 07:21:00 GMT</pubDate><guid>http://www.blogjava.net/ashutc/archive/2010/10/22/335890.html</guid><wfw:comment>http://www.blogjava.net/ashutc/comments/335890.html</wfw:comment><comments>http://www.blogjava.net/ashutc/archive/2010/10/22/335890.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/ashutc/comments/commentRss/335890.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/ashutc/services/trackbacks/335890.html</trackback:ping><description><![CDATA[<br />
<p>在SIP项目设计的过程中，对于它庞大的日志在开始时就考虑使用任务分解的多线程处理模式来分析统计，在我从前写的文章《Tiger
Concurrent Practice
--日志分析并行分解设计与实现》中有所提到。但是由于统计的内容暂时还是十分简单，所以就采用Memcache作为计数器，结合MySQL就完成了访问
控制以及统计的工作。然而未来，对于海量日志分析的工作，还是需要有所准备。现在最火的技术词汇莫过于&#8220;云计算&#8221;，在Open
API日益盛行的今天，互联网应用的数据将会越来越有价值，如何去分析这些数据，挖掘其内在价值，就需要分布式计算来支撑海量数据的分析工作。</p>
<p>回过头来看，早先那种多线程，多任务分解的日志分析设计，其实是分布式计算的一个单机版缩略，如何将这种单机的工作进行分拆，变成协同工作的集群，
其实就是分布式计算框架设计所涉及的。在去年参加BEA大会的时候，BEA和VMWare合作采用虚拟机来构建集群，无非就是希望使得计算机硬件能够类似
于应用程序中资源池的资源，使用者无需关心资源的分配情况，从而最大化了硬件资源的使用价值。分布式计算也是如此，具体的计算任务交由哪一台机器执行，执
行后由谁来汇总，这都由分布式框架的Master来抉择，而使用者只需简单地将待分析内容提供给分布式计算系统作为输入，就可以得到分布式计算后的结果。</p>
<p>Hadoop是Apache开源组织的一个分布式计算开源框架，在很多大型网站上都已经得到了应用，如亚马逊、Facebook和Yahoo等等。
对于我来说，最近的一个使用点就是服务集成平台的日志分析。服务集成平台的日志量将会很大，而这也正好符合了分布式计算的适用场景（日志分析和索引建立就
是两大应用场景）。</p>
<p>当前没有正式确定使用，所以也是自己业余摸索，后续所写的相关内容，都是一个新手的学习过程，难免会有一些错误，只是希望记录下来可以分享给更多志同道合的朋友。</p>
<h2>什么是Hadoop？</h2>
<p>搞什么东西之前，第一步是要知道What（是什么），然后是Why（为什么），最后才是How（怎么做）。但很多开发的朋友在做了多年项目以后，都习惯是先How，然后What，最后才是Why，这样只会让自己变得浮躁，同时往往会将技术误用于不适合的场景。</p>
<p>Hadoop框架中最核心的设计就是：MapReduce和HDFS。MapReduce的思想是由Google的一篇论文所提及而被广为流传的，
简单的一句话解释MapReduce就是&#8220;任务的分解与结果的汇总&#8221;。HDFS是Hadoop分布式文件系统（Hadoop Distributed
File System）的缩写，为分布式计算存储提供了底层支持。</p>
<p>MapReduce从它名字上来看就大致可以看出个缘由，两个动词Map和Reduce，&#8220;Map（展开）&#8221;就是将一个任务分解成为多个任
务，&#8220;Reduce&#8221;就是将分解后多任务处理的结果汇总起来，得出最后的分析结果。这不是什么新思想，其实在前面提到的多线程，多任务的设计就可以找到这
种思想的影子。不论是现实社会，还是在程序设计中，一项工作往往可以被拆分成为多个任务，任务之间的关系可以分为两种：一种是不相关的任务，可以并行执
行；另一种是任务之间有相互的依赖，先后顺序不能够颠倒，这类任务是无法并行处理的。回到大学时期，教授上课时让大家去分析关键路径，无非就是找最省时的
任务分解执行方式。在分布式系统中，机器集群就可以看作硬件资源池，将并行的任务拆分，然后交由每一个空闲机器资源去处理，能够极大地提高计算效率，同时
这种资源无关性，对于计算集群的扩展无疑提供了最好的设计保证。（其实我一直认为Hadoop的卡通图标不应该是一个小象，应该是蚂蚁，分布式计算就好比
蚂蚁吃大象，廉价的机器群可以匹敌任何高性能的计算机，纵向扩展的曲线始终敌不过横向扩展的斜线）。任务分解处理以后，那就需要将处理以后的结果再汇总起
来，这就是Reduce要做的工作。</p>
<img alt="" src="http://www.infoq.com/resource/articles/hadoop-intro/zh/resources/image001.gif" /><br />
<strong>图1：MapReduce结构示意图</strong>
<p>上图就是MapReduce大致的结构图，在Map前还可能会对输入的数据有Split（分割）的过程，保证任务并行效率，在Map之后还会有Shuffle（混合）的过程，对于提高Reduce的效率以及减小数据传输的压力有很大的帮助。后面会具体提及这些部分的细节。</p>
<p>HDFS是分布式计算的存储基石，Hadoop的分布式文件系统和其他分布式文件系统有很多类似的特质。分布式文件系统基本的几个特点：</p>
<ol>
    <li>对于整个集群有单一的命名空间。</li>
    <li>数据一致性。适合一次写入多次读取的模型，客户端在文件没有被成功创建之前无法看到文件存在。</li>
    <li>文件会被分割成多个文件块，每个文件块被分配存储到数据节点上，而且根据配置会由复制文件块来保证数据的安全性。</li>
</ol>
<img alt="" src="http://www.infoq.com/resource/articles/hadoop-intro/zh/resources/image002.gif" /><br />
<strong>图2：HDFS结构示意图</strong>
<p>上图中展现了整个HDFS三个重要角色：NameNode、DataNode和Client。NameNode可以看作是分布式文件系统中的管理
者，主要负责管理文件系统的命名空间、集群配置信息和存储块的复制等。NameNode会将文件系统的Meta-data存储在内存中，这些信息主要包括
了文件信息、每一个文件对应的文件块的信息和每一个文件块在DataNode的信息等。DataNode是文件存储的基本单元，它将Block存储在本地
文件系统中，保存了Block的Meta-data，同时周期性地将所有存在的Block信息发送给NameNode。Client就是需要获取分布式文
件系统文件的应用程序。这里通过三个操作来说明他们之间的交互关系。</p>
<p><strong>文件写入：</strong></p>
<ol>
    <li>Client向NameNode发起文件写入的请求。</li>
    <li>NameNode根据文件大小和文件块配置情况，返回给Client它所管理部分DataNode的信息。</li>
    <li>Client将文件划分为多个Block，根据DataNode的地址信息，按顺序写入到每一个DataNode块中。</li>
</ol>
<p><strong>文件读取：</strong></p>
<ol>
    <li>Client向NameNode发起文件读取的请求。</li>
    <li>NameNode返回文件存储的DataNode的信息。</li>
    <li>Client读取文件信息。</li>
</ol>
<p><strong>文件Block复制：</strong></p>
<ol>
    <li>NameNode发现部分文件的Block不符合最小复制数或者部分DataNode失效。</li>
    <li>通知DataNode相互复制Block。</li>
    <li>DataNode开始直接相互复制。</li>
</ol>
<p>最后再说一下HDFS的几个设计特点（对于框架设计值得借鉴）：</p>
<ol>
    <li>Block的放置：默认不配置。一个Block会有三份备份，一份放在NameNode指定的DataNode，另一份放在与指定
    DataNode非同一Rack上的DataNode，最后一份放在与指定DataNode同一Rack上的DataNode上。备份无非就是为了数据安
    全，考虑同一Rack的失败情况以及不同Rack之间数据拷贝性能问题就采用这种配置方式。</li>
    <li>心跳检测DataNode的健康状况，如果发现问题就采取数据备份的方式来保证数据的安全性。</li>
    <li>数据复制（场景为DataNode失败、需要平衡DataNode的存储利用率和需要平衡DataNode数据交互压力等情况）：这里先
    说一下，使用HDFS的balancer命令，可以配置一个Threshold来平衡每一个DataNode磁盘利用率。例如设置了Threshold为
    10%，那么执行balancer命令的时候，首先统计所有DataNode的磁盘利用率的均值，然后判断如果某一个DataNode的磁盘利用率超过这
    个均值Threshold以上，那么将会把这个DataNode的block转移到磁盘利用率低的DataNode，这对于新节点的加入来说十分有用。</li>
    <li>数据交验：采用CRC32作数据交验。在文件Block写入的时候除了写入数据还会写入交验信息，在读取的时候需要交验后再读入。</li>
    <li>NameNode是单点：如果失败的话，任务处理信息将会纪录在本地文件系统和远端的文件系统中。</li>
    <li>数据管道性的写入：当客户端要写入文件到DataNode上，首先客户端读取一个Block然后写到第一个DataNode上，然后由第
    一个DataNode传递到备份的DataNode上，一直到所有需要写入这个Block的NataNode都成功写入，客户端才会继续开始写下一个
    Block。</li>
    <li>安全模式：在分布式文件系统启动的时候，开始的时候会有安全模式，当分布式文件系统处于安全模式的情况下，文件系统中的内容不允许修改也
    不允许删除，直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性，同时根据策略必要的复制或者删除部分数据
    块。运行期通过命令也可以进入安全模式。在实践过程中，系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示，只需要等待一会儿即可。</li>
</ol>
<p>下面综合MapReduce和HDFS来看Hadoop的结构：</p>
<p class="image-wide"> <img alt="" src="http://www.infoq.com/resource/articles/hadoop-intro/zh/resources/image003.gif" /><br />
<strong>图3：Hadoop结构示意图</strong></p>
<p>在Hadoop的系统中，会有一台Master，主要负责NameNode的工作以及JobTracker的工作。JobTracker的主要职责
就是启动、跟踪和调度各个Slave的任务执行。还会有多台Slave，每一台Slave通常具有DataNode的功能并负责TaskTracker的
工作。TaskTracker根据应用要求来结合本地数据执行Map任务以及Reduce任务。</p>
<p>说到这里，就要提到分布式计算最重要的一个设计点：Moving Computation is Cheaper than Moving
Data。就是在分布式处理中，移动数据的代价总是高于转移计算的代价。简单来说就是分而治之的工作，需要将数据也分而存储，本地任务处理本地数据然后归
总，这样才会保证分布式计算的高效性。</p>
<h2>为什么要选择Hadoop？</h2>
<p>说完了What，简单地说一下Why。官方网站已经给了很多的说明，这里就大致说一下其优点及使用的场景（没有不好的工具，只用不适用的工具，因此选择好场景才能够真正发挥分布式计算的作用）：</p>
<ol>
    <li>可扩展：不论是存储的可扩展还是计算的可扩展都是Hadoop的设计根本。</li>
    <li>经济：框架可以运行在任何普通的PC上。</li>
    <li>可靠：分布式文件系统的备份恢复机制以及MapReduce的任务监控保证了分布式处理的可靠性。</li>
    <li>高效：分布式文件系统的高效数据交互实现以及MapReduce结合Local Data处理的模式，为高效处理海量的信息作了基础准备。</li>
</ol>
<p><strong>使用场景：</strong>个人觉得最适合的就是海量数据的分析，其实Google最早提出MapReduce也就是为了海量数
据分析。同时HDFS最早是为了搜索引擎实现而开发的，后来才被用于分布式计算框架中。海量数据被分割于多个节点，然后由每一个节点并行计算，将得出的结
果归并到输出。同时第一阶段的输出又可以作为下一阶段计算的输入，因此可以想象到一个树状结构的分布式计算图，在不同阶段都有不同产出，同时并行和串行结
合的计算也可以很好地在分布式集群的资源下得以高效的处理。</p>
<br />
<p>其实参看Hadoop官方文档已经能够很容易配置分布式框架运行环境了，不过这里既然写了就再多写一点，同时有一些细节需要注意的也说明一下，其实
也就是这些细节会让人摸索半天。Hadoop可以单机跑，也可以配置集群跑，单机跑就不需要多说了，只需要按照Demo的运行说明直接执行命令即可。这里
主要重点说一下集群配置运行的过程。</p>
<h2>环境</h2>
<p>7台普通的机器，操作系统都是Linux。内存和CPU就不说了，反正Hadoop一大特点就是机器在多不在精。JDK必须是1.5以上的，这个切记。7台机器的机器名务必不同，后续会谈到机器名对于MapReduce有很大的影响。</p>
<h2>部署考虑</h2>
<p>正如上面我描述的，对于Hadoop的集群来说，可以分成两大类角色：Master和Slave，前者主要配置NameNode和
JobTracker的角色，负责总管分布式数据和分解任务的执行，后者配置DataNode和TaskTracker的角色，负责分布式数据存储以及任
务的执行。本来我打算看看一台机器是否可以配置成Master，同时也作为Slave使用，不过发现在NameNode初始化的过程中以及
TaskTracker执行过程中机器名配置好像有冲突（NameNode和TaskTracker对于Hosts的配置有些冲突，究竟是把机器名对应
IP放在配置前面还是把Localhost对应IP放在前面有点问题，不过可能也是我自己的问题吧，这个大家可以根据实施情况给我反馈）。最后反正决定一
台Master，六台Slave，后续复杂的应用开发和测试结果的比对会增加机器配置。</p>
<h2>实施步骤</h2>
<ol>
    <li>在所有的机器上都建立相同的目录，也可以就建立相同的用户，以该用户的home路径来做hadoop的安装路径。例如我在所有的机器上都建立了<code>/home/wenchu</code>。</li>
    <li>下载Hadoop，先解压到Master上。这里我是下载的0.17.1的版本。此时Hadoop的安装路径就是<code>/home/wenchu/hadoop-0.17.1</code>。</li>
    <li>解压后进入conf目录，主要需要修改以下文件：<code>hadoop-env.sh</code>，<code>hadoop-site.xml</code>、<code>masters</code>、<code>slaves</code>。
    <p>Hadoop的基础配置文件是<code>hadoop-default.xml</code>，看Hadoop的代码可以知道，默认建立一个Job的时候会建立Job的Config，Config首先读入<code>hadoop-default.xml</code>的配置，然后再读入<code>hadoop-site.xml</code>的配置（这个文件初始的时候配置为空），<code>hadoop-site.xml</code>中主要配置你需要覆盖的<code>hadoop-default.xml</code>的系统级配置，以及你需要在你的MapReduce过程中使用的自定义配置（具体的一些使用例如final等参考文档）。</p>
    <p>以下是一个简单的<code>hadoop-site.xml</code>的配置：</p>
    <pre>&lt;?xml version="1.0"?&gt;<br />
    &lt;?xml-stylesheet type="text/xsl" href="configuration.xsl"?&gt;<br />
    &lt;!-- Put site-specific property overrides in this file. --&gt;<br />
    &lt;configuration&gt;<br />
    &lt;property&gt;<br />
    &nbsp;&nbsp; &lt;name&gt;fs.default.name&lt;/name&gt;//你的namenode的配置，机器名加端口<br />
    &nbsp;&nbsp; &lt;value&gt;hdfs://10.2.224.46:54310/&lt;/value&gt;<br />
    &lt;/property&gt;<br />
    &lt;property&gt;<br />
    &nbsp;&nbsp; &lt;name&gt;mapred.job.tracker&lt;/name&gt;//你的JobTracker的配置，机器名加端口<br />
    &nbsp;&nbsp; &lt;value&gt;hdfs://10.2.224.46:54311/&lt;/value&gt;<br />
    &lt;/property&gt;<br />
    &lt;property&gt;<br />
    &nbsp;&nbsp; &lt;name&gt;dfs.replication&lt;/name&gt;//数据需要备份的数量，默认是三<br />
    &nbsp;&nbsp; &lt;value&gt;1&lt;/value&gt;<br />
    &lt;/property&gt;<br />
    &lt;property&gt;<br />
    &nbsp;&nbsp;&nbsp; &lt;name&gt;hadoop.tmp.dir&lt;/name&gt;//Hadoop的默认临时路径，这个最好配置，如果在新增节点或者其他情况下莫名其妙的DataNode启动不了，就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录，那么就需要重新执行NameNode格式化的命令。<br />
    &nbsp;&nbsp;&nbsp; &lt;value&gt;/home/wenchu/hadoop/tmp/&lt;/value&gt;<br />
    &lt;/property&gt;<br />
    &lt;property&gt;<br />
    &nbsp;&nbsp; &lt;name&gt;mapred.child.java.opts&lt;/name&gt;//java虚拟机的一些参数可以参照配置<br />
    &nbsp;&nbsp; &lt;value&gt;-Xmx512m&lt;/value&gt;<br />
    &lt;/property&gt;<br />
    &lt;property&gt;<br />
    &nbsp; &lt;name&gt;dfs.block.size&lt;/name&gt;//block的大小，单位字节，后面会提到用处，必须是512的倍数，因为采用crc作文件完整性校验，默认配置512是checksum的最小单元。<br />
    &nbsp; &lt;value&gt;5120000&lt;/value&gt;<br />
    &nbsp; &lt;description&gt;The default block size for new files.&lt;/description&gt;<br />
    &lt;/property&gt;<br />
    &lt;/configuration&gt;</pre>
    <p><code>hadoop-env.sh</code>文件只需要修改一个参数：</p>
    <pre><code># The java implementation to use.  Required.</code><br />
    <code> export JAVA_HOME=/usr/ali/jdk1.5.0_10 </code></pre>
    <p>配置你的Java路径，记住一定要1.5版本以上，免得莫名其妙出现问题。</p>
    <p>Masters中配置Masters的IP或者机器名，如果是机器名那么需要在<code>/etc/hosts</code>中有所设置。Slaves中配置的是Slaves的IP或者机器名，同样如果是机器名需要在<code>/etc/hosts</code>中有所设置。范例如下，我这里配置的都是IP：</p>
    <pre>Masters:<br />
    10.2.224.46<br />
    <br />
    Slaves:<br />
    10.2.226.40<br />
    10.2.226.39<br />
    10.2.226.38<br />
    10.2.226.37<br />
    10.2.226.41<br />
    10.2.224.36 </pre>
    </li>
    <li>建立Master到每一台Slave的SSH受信证书。由于Master将会通过SSH启动所有Slave的Hadoop，所以需要建立单向或者双向证书保证命令执行时不需要再输入密码。在Master和所有的Slave机器上执行：<code>ssh-keygen -t rsa</code>。执行此命令的时候，看到提示只需要回车。然后就会在<code>/root/.ssh/</code>下面产生<code>id_rsa.pub</code>的证书文件，通过scp将Master机器上的这个文件拷贝到Slave上（记得修改名称），例如：<code>scp root@masterIP:/root/.ssh/id_rsa.pub /root/.ssh/46_rsa.pub</code>，然后执行<code>cat /root/.ssh/46_rsa.pub &gt;&gt;/root/.ssh/authorized_keys</code>，建立<code>authorized_keys</code>文
    件即可，可以打开这个文件看看，也就是rsa的公钥作为key，user@IP作为value。此时可以试验一下，从master
    ssh到slave已经不需要密码了。由slave反向建立也是同样。为什么要反向呢？其实如果一直都是Master启动和关闭的话那么没有必要建立反
    向，只是如果想在Slave也可以关闭Hadoop就需要建立反向。</li>
    <li>将Master上的Hadoop通过scp拷贝到每一个Slave相同的目录下，根据每一个Slave的<code>Java_HOME</code>的不同修改其<code>hadoop-env.sh</code>。</li>
    <li>修改Master上<code>/etc/profile：</code><br />
    新增以下内容：（具体的内容根据你的安装路径修改，这步只是为了方便使用）<br />
    <pre><code>export HADOOP_HOME=/home/wenchu/hadoop-0.17.1</code><br />
    <code>export PATH=$PATH:$HADOOP_HOME/bin</code></pre>
    修改完毕后，执行<code>source /etc/profile</code>来使其生效。</li>
    <li>在Master上执行<code>Hadoop namenode &#8211;format</code>，这是第一需要做的初始化，可以看作格式化吧，以后除了在上面我提到过删除了Master上的<code>hadoop.tmp.dir</code>目录，否则是不需要再次执行的。</li>
    <li>然后执行Master上的<code>start-all.sh</code>，这个命令可以直接执行，因为在6中已经添加到了path路径，这个命令是启动hdfs和mapreduce两部分，当然你也可以分开单独启动hdfs和mapreduce，分别是bin目录下的<code>start-dfs.sh</code>和<code>start-mapred.sh</code>。</li>
    <li>检查Master的logs目录，看看Namenode日志以及JobTracker日志是否正常启动。</li>
    <li>检查Slave的logs目录看看Datanode日志以及TaskTracker日志是否正常。</li>
    <li>如果需要关闭，那么就直接执行<code>stop-all.sh</code>即可。</li>
</ol>
<p>以上步骤就可以启动Hadoop的分布式环境，然后在Master的机器进入Master的安装目录，执行<code>hadoop jar hadoop-0.17.1-examples.jar wordcount</code>输入路径和输出路径，就可以看到字数统计的效果了。此处的输入路径和输出路径都指的是HDFS中的路径，因此你可以首先通过拷贝本地文件系统中的目录到HDFS中的方式来建立HDFS中的输入路径：</p>
<p><code>hadoop dfs -copyFromLocal /home/wenchu/test-in test-in。</code>其中<code>/home/wenchu/test-in</code>是本地路径，<code>test-in</code>是将会建立在HDFS中的路径，执行完毕以后可以通过<code>hadoop dfs &#8211;ls</code>看到test-in目录已经存在，同时可以通过<code>hadoop dfs &#8211;ls test-in</code>查看里面的内容。输出路径要求是在HDFS中不存在的，当执行完那个demo以后，就可以通过<code>hadoop dfs &#8211;ls </code>输出路径看到其中的内容，具体文件的内容可以通过<code>hadoop dfs &#8211;cat</code>文件名称来查看。</p>
<p>经验总结和注意事项（这部分是我在使用过程中花了一些时间走的弯路）：</p>
<ol>
    <li>Master和Slave上的几个conf配置文件不需要全部同步，如果确定都是通过Master去启动和关闭，那么Slave机器上的配置不需要去维护。但如果希望在任意一台机器都可以启动和关闭Hadoop，那么就需要全部保持一致了。</li>
    <li>Master和Slave机器上的<code>/etc/hosts</code>中必须把集群中机器都配置上去，就算在各个配置文件中
    使用的是IP。这个吃过不少苦头，原来以为如果配成IP就不需要去配置Host，结果发现在执行Reduce的时候总是卡住，在拷贝的时候就无法继续下
    去，不断重试。另外如果集群中如果有两台机器的机器名如果重复也会出现问题。</li>
    <li>如果在新增了节点或者删除节点的时候出现了问题，首先就去删除Slave的<code>hadoop.tmp.dir</code>，然后重新启动试试看，如果还是不行那就干脆把Master的<code>hadoop.tmp.dir</code>删除（意味着dfs上的数据也会丢失），如果删除了Master的<code>hadoop.tmp.dir</code>，那么就需要重新<code>namenode &#8211;format</code>。</li>
    <li>Map任务个数以及Reduce任务个数配置。前面分布式文件系统设计提到一个文件被放入到分布式文件系统中，会被分割成多个block放置到每一个的DataNode上，默认<code>dfs.block.size</code>应该是64M，也就是说如果你放置到HDFS上的数据小于64，那么将只有一个Block，此时会被放置到某一个DataNode中，这个可以通过使用命令：<code>hadoop dfsadmin &#8211;report</code>就可以看到各个节点存储的情况。也可以直接去某一个DataNode查看目录：<code>hadoop.tmp.dir/dfs/data/current</code>就
    可以看到那些block了。Block的数量将会直接影响到Map的个数。当然可以通过配置来设定Map和Reduce的任务个数。Map的个数通常默认
    和HDFS需要处理的blocks相同。也可以通过配置Map的数量或者配置minimum split size来设定，实际的个数为：<code>max(min(block_size,data/#maps),min_split_size)</code>。Reduce可以通过这个公式计算：<code>0.95*num_nodes*mapred.tasktracker.tasks.maximum</code>。</li>
</ol>
<p>总的来说出了问题或者启动的时候最好去看看日志，这样心里有底。</p>
<h2>Hadoop中的命令（Command）总结</h2>
<p>这部分内容其实可以通过命令的Help以及介绍了解，我主要侧重于介绍一下我用的比较多的几个命令。Hadoop dfs 这个命令后面加参数就是对于HDFS的操作，和Linux操作系统的命令很类似，例如：</p>
<ul>
    <li><code>Hadoop dfs &#8211;ls</code>就是查看/usr/root目录下的内容，默认如果不填路径这就是当前用户路径；</li>
    <li><code>Hadoop dfs &#8211;rmr xxx</code>就是删除目录，还有很多命令看看就很容易上手；</li>
    <li><code>Hadoop dfsadmin &#8211;report</code>这个命令可以全局的查看DataNode的情况；</li>
    <li><code>Hadoop job</code>后面增加参数是对于当前运行的Job的操作，例如list,kill等；</li>
    <li><code>Hadoop balancer</code>就是前面提到的均衡磁盘负载的命令。</li>
</ul>
<p>其他就不详细介绍了。</p>
<br />
<h2>Hadoop基本流程</h2>
<p class="image-wide"><img src="http://www.infoq.com/resource/articles/hadoop-process-develop/zh/resources/image1.gif" alt="" /></p>
<p class="image-wide"><img src="http://www.infoq.com/resource/articles/hadoop-process-develop/zh/resources/image2.gif" alt="" /></p>
<p>一个图片太大了，只好分割成为两部分。根据流程图来说一下具体一个任务执行的情况。</p>
<ol>
    <li>在分布式环境中客户端创建任务并提交。</li>
    <li>InputFormat做Map前的预处理，主要负责以下工作：<br />
    <ol>
        <li>验证输入的格式是否符合JobConfig的输入定义，这个在实现Map和构建Conf的时候就会知道，不定义可以是Writable的任意子类。</li>
        <li>将input的文件切分为逻辑上的输入InputSplit，其实这就是在上面提到的在分布式文件系统中blocksize是有大小限制的，因此大文件会被划分为多个block。</li>
        <li>通过RecordReader来再次处理inputsplit为一组records，输出给Map。（inputsplit只是逻辑切分的第一步，但是如何根据文件中的信息来切分还需要RecordReader来实现，例如最简单的默认方式就是回车换行的切分）</li>
    </ol>
    </li>
    <li>RecordReader处理后的结果作为Map的输入，Map执行定义的Map逻辑，输出处理后的key和value对应到临时中间文件。</li>
    <li>Combiner可选择配置，主要作用是在每一个Map执行完分析以后，在本地优先作Reduce的工作，减少在Reduce过程中的数据传输量。</li>
    <li>Partitioner可选择配置，主要作用是在多个Reduce的情况下，指定Map的结果由某一个Reduce处理，每一个Reduce都会有单独的输出文件。（后面的代码实例中有介绍使用场景）</li>
    <li>Reduce执行具体的业务逻辑，并且将处理结果输出给OutputFormat。</li>
    <li>OutputFormat的职责是，验证输出目录是否已经存在，同时验证输出结果类型是否如Config中配置，最后输出Reduce汇总后的结果。</li>
</ol>
<h2>业务场景和代码范例</h2>
<p><strong>业务场景描述：</strong>可设定输入和输出路径（操作系统的路径非HDFS路径），根据访问日志分析某一个应用访问某一个API的总次数和总流量，统计后分别输出到两个文件中。这里仅仅为了测试，没有去细分很多类，将所有的类都归并于一个类便于说明问题。</p>
<p class="image-wide"><img src="http://www.infoq.com/resource/articles/hadoop-process-develop/zh/resources/image3.gif" alt="" /><br />
<strong>测试代码类图</strong></p>
<p>LogAnalysiser就是主类，主要负责创建、提交任务，并且输出部分信息。内部的几个子类用途可以参看流程中提到的角色职责。具体地看看几个类和方法的代码片断：</p>
<p><strong>LogAnalysiser::MapClass</strong></p>
<pre><code>&nbsp;&nbsp;&nbsp; public static class MapClass extends MapReduceBase<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; implements Mapper&lt;LongWritable, Text, Text, LongWritable&gt; <br />
&nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; public void map(LongWritable key, Text value, OutputCollector&lt;Text, LongWritable&gt; output, Reporter reporter)<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; throws IOException<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; {&nbsp;&nbsp;&nbsp; <br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; String line = value.toString();//没有配置RecordReader，所以默认采用line的实现，key就是行号，value就是行内容<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; if (line == null || line.equals(""))<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; return;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; String[] words = line.split(",");<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; if (words == null || words.length &lt; 8)<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; return;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; String appid = words[1];<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; String apiName = words[2];<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; LongWritable recbytes = new LongWritable(Long.parseLong(words[7]));<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; Text record = new Text();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; record.set(new StringBuffer("flow::").append(appid)<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; .append("::").append(apiName).toString());<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; reporter.progress();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; output.collect(record, recbytes);//输出流量的统计结果，通过flow::作为前缀来标示。<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; record.clear();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; record.set(new StringBuffer("count::").append(appid).append("::").append(apiName).toString());<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; output.collect(record, new LongWritable(1));//输出次数的统计结果，通过count::作为前缀来标示<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; }&nbsp;&nbsp;&nbsp; <br />
&nbsp;&nbsp;&nbsp; }<br />
<br />
</code></pre>
<p><strong>LogAnalysiser:: PartitionerClass</strong></p>
<pre><code>&nbsp;&nbsp;&nbsp; public static class PartitionerClass implements Partitioner&lt;Text, LongWritable&gt;<br />
&nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; public int getPartition(Text key, LongWritable value, int numPartitions)<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; if (numPartitions &gt;= 2)//Reduce 个数，判断流量还是次数的统计分配到不同的Reduce<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; if (key.toString().startsWith("flow::"))<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; return 0;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; else<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; return 1;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; else<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; return 0;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; }<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; public void configure(JobConf job){}&nbsp;&nbsp;&nbsp; <br />
}</code></pre>
<p><strong>LogAnalysiser:: CombinerClass</strong></p>
<p>参看ReduceClass，通常两者可以使用一个，不过这里有些不同的处理就分成了两个。在ReduceClass中蓝色的行表示在CombinerClass中不存在。</p>
<p><strong>LogAnalysiser:: ReduceClass</strong></p>
<pre><code>&nbsp;&nbsp;&nbsp; public static class ReduceClass extends MapReduceBase<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; implements Reducer&lt;Text, LongWritable,Text, LongWritable&gt; <br />
&nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; public void reduce(Text key, Iterator&lt;LongWritable&gt; values,<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; OutputCollector&lt;Text, LongWritable&gt; output, Reporter reporter)throws IOException<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; Text newkey = new Text();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; newkey.set(key.toString().substring(key.toString().indexOf("::")+2));<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; LongWritable result = new LongWritable();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; long tmp = 0;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; int counter = 0;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; while(values.hasNext())//累加同一个key的统计结果<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; tmp = tmp + values.next().get();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; <br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; counter = counter +1;//担心处理太久，JobTracker长时间没有收到报告会认为TaskTracker已经失效，因此定时报告一下<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; if (counter == 1000)<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; {<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; counter = 0;<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; reporter.progress();<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; }<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; }<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; result.set(tmp);<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; output.collect(newkey, result);//输出最后的汇总结果<br />
&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; }&nbsp;&nbsp;&nbsp; <br />
&nbsp;&nbsp;&nbsp; }</code></pre>
<p><strong>LogAnalysiser</strong></p>
<pre><code>	public static void main(String[] args)<br />
{<br />
try<br />
{<br />
run(args);<br />
} catch (Exception e)<br />
{<br />
e.printStackTrace();<br />
}<br />
}<br />
public static void run(String[] args) throws Exception<br />
{<br />
if (args == null || args.length &lt;2)<br />
{<br />
System.out.println("need inputpath and outputpath");<br />
return;<br />
}<br />
String inputpath = args[0];<br />
String outputpath = args[1];<br />
String shortin = args[0];<br />
String shortout = args[1];<br />
if (shortin.indexOf(File.separator) &gt;= 0)<br />
shortin = shortin.substring(shortin.lastIndexOf(File.separator));<br />
if (shortout.indexOf(File.separator) &gt;= 0)<br />
shortout = shortout.substring(shortout.lastIndexOf(File.separator));<br />
SimpleDateFormat formater = new SimpleDateFormat("yyyy.MM.dd");<br />
shortout = new StringBuffer(shortout).append("-")<br />
.append(formater.format(new Date())).toString();<br />
<br />
<br />
if (!shortin.startsWith("/"))<br />
shortin = "/" + shortin;<br />
if (!shortout.startsWith("/"))<br />
shortout = "/" + shortout;<br />
shortin = "/user/root" + shortin;<br />
shortout = "/user/root" + shortout;			<br />
File inputdir = new File(inputpath);<br />
File outputdir = new File(outputpath);<br />
if (!inputdir.exists() || !inputdir.isDirectory())<br />
{<br />
System.out.println("inputpath not exist or isn't dir!");<br />
return;<br />
}<br />
if (!outputdir.exists())<br />
{<br />
new File(outputpath).mkdirs();<br />
}<br />
<br />
JobConf conf = new JobConf(new Configuration(),LogAnalysiser.class);//构建Config<br />
FileSystem fileSys = FileSystem.get(conf);<br />
fileSys.copyFromLocalFile(new Path(inputpath), new Path(shortin));//将本地文件系统的文件拷贝到HDFS中<br />
<br />
conf.setJobName("analysisjob");<br />
conf.setOutputKeyClass(Text.class);//输出的key类型，在OutputFormat会检查<br />
conf.setOutputValueClass(LongWritable.class); //输出的value类型，在OutputFormat会检查<br />
conf.setMapperClass(MapClass.class);<br />
conf.setCombinerClass(CombinerClass.class);<br />
conf.setReducerClass(ReduceClass.class);<br />
conf.setPartitionerClass(PartitionerClass.class);<br />
conf.set("mapred.reduce.tasks", "2");//强制需要有两个Reduce来分别处理流量和次数的统计<br />
FileInputFormat.setInputPaths(conf, shortin);//hdfs中的输入路径<br />
FileOutputFormat.setOutputPath(conf, new Path(shortout));//hdfs中输出路径<br />
<br />
Date startTime = new Date();<br />
System.out.println("Job started: " + startTime);<br />
JobClient.runJob(conf);<br />
Date end_time = new Date();<br />
System.out.println("Job ended: " + end_time);<br />
System.out.println("The job took " + (end_time.getTime() - startTime.getTime()) /1000 + " seconds.");<br />
//删除输入和输出的临时文件<br />
fileSys.copyToLocalFile(new Path(shortout),new Path(outputpath));<br />
fileSys.delete(new Path(shortin),true);<br />
fileSys.delete(new Path(shortout),true);<br />
}<br />
<br />
</code></pre>
<p>以上的代码就完成了所有的逻辑性代码，然后还需要一个注册驱动类来注册业务Class为一个可标示的命令，让hadoop jar可以执行。</p>
<pre><code>public class ExampleDriver {<br />
&nbsp; public static void main(String argv[]){<br />
&nbsp;&nbsp;&nbsp; ProgramDriver pgd = new ProgramDriver();<br />
&nbsp;&nbsp;&nbsp; try {<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; pgd.addClass("analysislog", LogAnalysiser.class, "A map/reduce program that analysis log .");<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; pgd.driver(argv);<br />
&nbsp;&nbsp;&nbsp; }<br />
&nbsp;&nbsp;&nbsp; catch(Throwable e){<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; e.printStackTrace();<br />
&nbsp;&nbsp;&nbsp; }<br />
&nbsp; }<br />
}</code></pre>
<p>将代码打成jar，并且设置jar的mainClass为ExampleDriver这个类。在分布式环境启动以后执行如下语句：</p>
<pre><code>hadoop jar analysiser.jar analysislog /home/wenchu/test-in /home/wenchu/test-out</code></pre>
<p>在/home/wenchu/test-in中是需要分析的日志文件，执行后就会看见整个执行过程，包括了Map和Reduce的进度。执行完毕会
在/home/wenchu/test-out下看到输出的内容。有两个文件：part-00000和part-00001分别记录了统计后的结果。
如果需要看执行的具体情况，可以看在输出目录下的_logs/history/xxxx_analysisjob，里面罗列了所有的Map，Reduce
的创建情况以及执行情况。在运行期也可以通过浏览器来查看Map,Reduce的情况：http://MasterIP:50030
/jobtracker.jsp</p>
<h2>Hadoop集群测试</h2>
<p>首先这里使用上面的范例作为测试，也没有做太多的优化配置，这个测试结果只是为了看看集群的效果，以及一些参数配置的影响。</p>
<p><strong>文件复制数为1，blocksize 5M</strong></p>
<table style="text-align: center;">
    <thead>
        <td>Slave数</td>
        <td>处理记录数(万条)</td>
        <td>执行时间（秒）</td>
    </thead>
    <tbody>
        <tr>
            <td>2</td>
            <td>95</td>
            <td>38</td>
        </tr>
        <tr>
            <td>2</td>
            <td>950</td>
            <td>337</td>
        </tr>
        <tr>
            <td>4</td>
            <td>95</td>
            <td>24</td>
        </tr>
        <tr>
            <td>4</td>
            <td>950</td>
            <td>178</td>
        </tr>
        <tr>
            <td>6</td>
            <td>95</td>
            <td>21</td>
        </tr>
        <tr>
            <td>6</td>
            <td>950</td>
            <td>114</td>
        </tr>
    </tbody>
</table>
<p><strong>Blocksize 5M</strong></p>
<table style="text-align: center;">
    <thead>
        <td>Slave数</td>
        <td>处理记录数(万条)</td>
        <td>执行时间（秒）</td>
    </thead>
    <tbody>
        <tr>
            <td>2（文件复制数为1）</td>
            <td>950</td>
            <td>337</td>
        </tr>
        <tr>
            <td>2（文件复制数为3）</td>
            <td>950</td>
            <td>339</td>
        </tr>
        <tr>
            <td>6（文件复制数为1）</td>
            <td>950</td>
            <td>114</td>
        </tr>
        <tr>
            <td>6（文件复制数为3）</td>
            <td>950</td>
            <td>117</td>
        </tr>
    </tbody>
</table>
<p><strong>文件复制数为1</strong></p>
<table style="text-align: center;">
    <thead>
        <td>Slave数</td>
        <td>处理记录数(万条)</td>
        <td>执行时间（秒）</td>
    </thead>
    <tbody>
        <tr>
            <td>6(blocksize 5M)</td>
            <td>95</td>
            <td>21</td>
        </tr>
        <tr>
            <td>6(blocksize 77M)</td>
            <td>95</td>
            <td>26</td>
        </tr>
        <tr>
            <td>4(blocksize 5M)</td>
            <td>950</td>
            <td>178</td>
        </tr>
        <tr>
            <td>4(blocksize 50M)</td>
            <td>950</td>
            <td>54</td>
        </tr>
        <tr>
            <td>6(blocksize 5M)</td>
            <td>950</td>
            <td>114</td>
        </tr>
        <tr>
            <td>6(blocksize 50M)</td>
            <td>950</td>
            <td>44</td>
        </tr>
        <tr>
            <td>6(blocksize 77M)</td>
            <td>950</td>
            <td>74</td>
        </tr>
    </tbody>
</table>
<p>测试的数据结果很稳定，基本测几次同样条件下都是一样。通过测试结果可以看出以下几点：</p>
<ol>
    <li>机器数对于性能还是有帮助的（等于没说^_^）。</li>
    <li>文件复制数的增加只对安全性有帮助，但是对于性能没有太多帮助。而且现在采取的是将操作系统文件拷贝到HDFS中，所以备份多了，准备的时间很长。</li>
    <li>blocksize对于性能影响很大，首先如果将block划分的太小，那么将会增加job的数量，同时也增加了协作的代价，降低了性能，但是配置的太大也会让job不能最大化并行处理。所以这个值的配置需要根据数据处理的量来考虑。</li>
    <li>最后就是除了这个表里面列出来的结果，应该去仔细看输出目录中的_logs/history中的xxx_analysisjob这个文件，里面记录了全部的执行过程以及读写情况。这个可以更加清楚地了解哪里可能会更加耗时。</li>
</ol>
<h2>随想</h2>
<p>&#8220;云计算&#8221;热的烫手，就和SAAS、Web2及SNS等一样，往往都是在搞概念，只有真正踏踏实实的大型互联网公司，才会投入人力物力去研究符合自
己的分布式计算。其实当你的数据量没有那么大的时候，这种分布式计算也就仅仅只是一个玩具而已，只有在真正解决问题的过程中，它深层次的问题才会被挖掘出
来。</p>
<p>
这三篇文章（分布式计算开源框架Hadoop介绍，Hadoop中的集群配置和使用技巧）仅仅是为了给对分布式计算有兴趣的朋友抛个砖，要想真的掘到金
子，那么就踏踏实实的去用、去想、去分析。或者自己也会更进一步地去研究框架中的实现机制，在解决自己问题的同时，也能够贡献一些什么。</p>
<p>	前几日看到有人跪求成为架构师的方式，看了有些可悲，有些可笑，其实有多少架构师知道什么叫做架构？架构师的职责是什么？与其追求这么一个名号，还不如踏踏实实地做块石头沉到水底。要知道，积累和沉淀的过程就是一种成长。</p>
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<img src ="http://www.blogjava.net/ashutc/aggbug/335890.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/ashutc/" target="_blank">西瓜</a> 2010-10-22 15:21 <a href="http://www.blogjava.net/ashutc/archive/2010/10/22/335890.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Hadoop-- 海量文件的分布式计算处理方案</title><link>http://www.blogjava.net/ashutc/archive/2010/10/22/335863.html</link><dc:creator>西瓜</dc:creator><author>西瓜</author><pubDate>Fri, 22 Oct 2010 02:55:00 GMT</pubDate><guid>http://www.blogjava.net/ashutc/archive/2010/10/22/335863.html</guid><wfw:comment>http://www.blogjava.net/ashutc/comments/335863.html</wfw:comment><comments>http://www.blogjava.net/ashutc/archive/2010/10/22/335863.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/ashutc/comments/commentRss/335863.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/ashutc/services/trackbacks/335863.html</trackback:ping><description><![CDATA[Hadoop 是Google <a href="http://avindev.googlepages.com/mapreduce.doc">MapReduce</a>的
一个Java实现。MapReduce是一种简化的分布式编程模式，让程序自动分布到一个由普通机器组成的超大集群上并发执行。就如同java程序员可以
不考虑内存泄露一样，
MapReduce的run-time系统会解决输入数据的分布细节，跨越机器集群的程序执行调度，处理机器的失效，并且管理机器之间的通讯请求。这样的
模式允许程序员可以不需要有什么并发处理或者分布式系统的经验，就可以处理超大的分布式系统得资源。
<h2>&nbsp;&nbsp;&nbsp; 一、概论</h2>
<p>&nbsp;&nbsp;&nbsp; 作为Hadoop程序员，他要做的事情就是：<br />
&nbsp;&nbsp;&nbsp; 1、定义Mapper，处理输入的Key-Value对，输出中间结果。<br />
&nbsp;&nbsp;&nbsp; 2、定义Reducer，可选，对中间结果进行规约，输出最终结果。<br />
&nbsp;&nbsp;&nbsp; 3、定义InputFormat 和OutputFormat，可选，InputFormat将每行输入文件的内容转换为Java类供Mapper函数使用，不定义时默认为String。<br />
&nbsp;&nbsp;&nbsp; 4、定义main函数，在里面定义一个Job并运行它。<br />
&nbsp;&nbsp;&nbsp; </p>
<p>&nbsp;&nbsp;&nbsp; 然后的事情就交给系统了。<br />
&nbsp;&nbsp;&nbsp;
1.基本概念：Hadoop的HDFS实现了google的GFS文件系统，NameNode作为文件系统的负责调度运行在
master，DataNode运行在每个机器上。同时Hadoop实现了Google的MapReduce，JobTracker作为
MapReduce的总调度运行在master，TaskTracker则运行在每个机器上执行Task。<br />
<br />
&nbsp;&nbsp;&nbsp; 2.main()函数，创建JobConf，定义Mapper，Reducer，Input/OutputFormat 和输入输出文件目录，最后把Job提交給JobTracker，等待Job结束。<br />
<br />
&nbsp;&nbsp;&nbsp; 3.JobTracker，创建一个InputFormat的实例，调用它的getSplits()方法，把输入目录的文件拆分成FileSplist作为Mapper task 的输入，生成Mapper task加入Queue。<br />
<br />
&nbsp;&nbsp;&nbsp; 4.TaskTracker 向 JobTracker索求下一个Map/Reduce。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Mapper Task先从InputFormat创建RecordReader，循环读入FileSplits的内容生成Key与Value，传给Mapper函数，处理完后中间结果写成SequenceFile.<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Reducer Task 从运行Mapper的TaskTracker的Jetty上使用http协议获取所需的中间内容（33%），Sort/Merge后（66%），执行Reducer函数，最后按照OutputFormat写入结果目录。 </p>
<p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; TaskTracker 每10秒向JobTracker报告一次运行情况，每完成一个Task10秒后，就会向JobTracker索求下一个Task。</p>
<p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Nutch项目的全部数据处理都构建在Hadoop之上，详见<a href="http://wiki.apache.org/lucene-hadoop-data/attachments/HadoopPresentations/attachments/yahoo-sds.pdf">Scalable Computing with Hadoop</a>。</p>
<h2><br />
&nbsp;&nbsp;&nbsp; 二、程序员编写的代码</h2>
<p>&nbsp;&nbsp;&nbsp; 我们做一个简单的分布式的Grep，简单对输入文件进行逐行的正则匹配，如果符合就将该行打印到输出文件。因为是简单的全部输出，所以我们只要写Mapper函数，不用写Reducer函数，也不用定义Input/Output Format。</p>
<div style="border: 1px solid rgb(204, 204, 204); padding: 4px 5px 4px 4px; font-size: 13px; width: 98%; background-color: rgb(238, 238, 238);"><span style="color: rgb(0, 0, 255);">package</span> <span style="color: rgb(0, 0, 0);">&nbsp;demo.hadoop<br />
</span><span style="color: rgb(0, 0, 255);"><br />
public</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">class</span> <span style="color: rgb(0, 0, 0);">&nbsp;HadoopGrep&nbsp;{<br />
<br />
&nbsp;</span> <span style="color: rgb(0, 0, 255);">public</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">static</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">class</span> <span style="color: rgb(0, 0, 0);">&nbsp;RegMapper&nbsp;</span> <span style="color: rgb(0, 0, 255);">extends</span> <span style="color: rgb(0, 0, 0);">&nbsp;MapReduceBase&nbsp;</span> <span style="color: rgb(0, 0, 255);">implements</span> <span style="color: rgb(0, 0, 0);">&nbsp;Mapper&nbsp;{<br />
<br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">private</span> <span style="color: rgb(0, 0, 0);">&nbsp;Pattern&nbsp;pattern;<br />
<br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">public</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">void</span> <span style="color: rgb(0, 0, 0);">&nbsp;configure(JobConf&nbsp;job)&nbsp;{<br />
&nbsp;&nbsp;&nbsp;pattern&nbsp;</span> <span style="color: rgb(0, 0, 0);">=</span> <span style="color: rgb(0, 0, 0);">&nbsp;Pattern.compile(job.get(</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">mapred.mapper.regex</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">));<br />
&nbsp;&nbsp;}<br />
<br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">public</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">void</span> <span style="color: rgb(0, 0, 0);">&nbsp;map(WritableComparable&nbsp;key,&nbsp;Writable&nbsp;value,&nbsp;OutputCollector&nbsp;output,&nbsp;Reporter&nbsp;reporter)<br />
&nbsp;&nbsp;&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">throws</span> <span style="color: rgb(0, 0, 0);">&nbsp;IOException&nbsp;{<br />
&nbsp;&nbsp;&nbsp;String&nbsp;text&nbsp;</span> <span style="color: rgb(0, 0, 0);">=</span> <span style="color: rgb(0, 0, 0);">&nbsp;((Text)&nbsp;value).toString();<br />
&nbsp;&nbsp;&nbsp;Matcher&nbsp;matcher&nbsp;</span> <span style="color: rgb(0, 0, 0);">=</span> <span style="color: rgb(0, 0, 0);">&nbsp;pattern.matcher(text);<br />
&nbsp;&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">if</span> <span style="color: rgb(0, 0, 0);">&nbsp;(matcher.find())&nbsp;{<br />
&nbsp;&nbsp;&nbsp;&nbsp;output.collect(key,&nbsp;value);<br />
&nbsp;&nbsp;&nbsp;}<br />
&nbsp;&nbsp;}<br />
&nbsp;}<br />
<br />
&nbsp;</span> <span style="color: rgb(0, 0, 255);">private</span> <span style="color: rgb(0, 0, 0);">&nbsp;HadoopGrep&nbsp;()&nbsp;{<br />
&nbsp;}&nbsp;</span> <span style="color: rgb(0, 128, 0);">//</span> <span style="color: rgb(0, 128, 0);">&nbsp;singleton</span> <span style="color: rgb(0, 128, 0);"><br />
</span><span style="color: rgb(0, 0, 0);"><br />
&nbsp;</span> <span style="color: rgb(0, 0, 255);">public</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">static</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">void</span> <span style="color: rgb(0, 0, 0);">&nbsp;main(String[]&nbsp;args)&nbsp;</span> <span style="color: rgb(0, 0, 255);">throws</span> <span style="color: rgb(0, 0, 0);">&nbsp;Exception&nbsp;{<br />
&nbsp;&nbsp;<br />
&nbsp;&nbsp;JobConf&nbsp;grepJob&nbsp;</span> <span style="color: rgb(0, 0, 0);">=</span> <span style="color: rgb(0, 0, 0);">&nbsp;</span> <span style="color: rgb(0, 0, 255);">new</span> <span style="color: rgb(0, 0, 0);">&nbsp;JobConf(HadoopGrep.</span> <span style="color: rgb(0, 0, 255);">class</span> <span style="color: rgb(0, 0, 0);">);<br />
&nbsp;&nbsp;grepJob.setJobName(</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">grep-search</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">);<br />
&nbsp;&nbsp;grepJob.set(</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">mapred.mapper.regex</span> <span style="color: rgb(0, 0, 0);">"</span> <span style="color: rgb(0, 0, 0);">,&nbsp;args[</span> <span style="color: rgb(0, 0, 0);">2</span> <span style="color: rgb(0, 0, 0);">]);<br />
<br />
&nbsp;&nbsp;grepJob.setInputPath(</span> <span style="color: rgb(0, 0, 255);">new</span> <span style="color: rgb(0, 0, 0);">&nbsp;Path(args[</span> <span style="color: rgb(0, 0, 0);">0</span> <span style="color: rgb(0, 0, 0);">]));<br />
&nbsp;&nbsp;grepJob.setOutputPath(</span> <span style="color: rgb(0, 0, 255);">new</span> <span style="color: rgb(0, 0, 0);">&nbsp;Path(args[</span> <span style="color: rgb(0, 0, 0);">1</span> <span style="color: rgb(0, 0, 0);">]));<br />
&nbsp;&nbsp;grepJob.setMapperClass(RegMapper.</span> <span style="color: rgb(0, 0, 255);">class</span> <span style="color: rgb(0, 0, 0);">);<br />
&nbsp;&nbsp;grepJob.setReducerClass(IdentityReducer.</span> <span style="color: rgb(0, 0, 255);">class</span> <span style="color: rgb(0, 0, 0);">);<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<br />
&nbsp;&nbsp;JobClient.runJob(grepJob);<br />
&nbsp;}<br />
}<br />
</span></div>
<p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; RegMapper类的configure()函数接受由main函数传入的查找字符串，map() 函数进行正则匹配，key是行数，value是文件行的内容，符合的文件行放入中间结果。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; main()函数定义由命令行参数传入的输入输出目录和匹配字符串，Mapper函数为RegMapper类，Reduce函数是什么都不做，直接把中间结果输出到最终结果的的IdentityReducer类，运行Job。</p>
<p><br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <strong>整个代码非常简单，丝毫没有分布式编程的任何细节。</strong></p>
<h2><br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 三.运行Hadoop程序</h2>
<p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Hadoop这方面的文档写得不全面，综合参考<a href="http://wiki.apache.org/lucene-hadoop/GettingStartedWithHadoop">GettingStartedWithHadoop</a>&nbsp;与<u><font color="#800080">Nutch Hadoop Tutorial</font></u> 两篇后，再碰了很多钉子才终于完整的跑起来了，记录如下：&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<br />
<br />
<strong>3.1 local运行模式<br />
</strong><br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 完全不进行任何分布式计算，不动用任何namenode,datanode的做法，适合一开始做调试代码。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 解压hadoop，其中conf目录是配置目录，hadoop的配置文件在hadoop-default.xml，如果要修改配置，不是直接修改该文件，而是修改hadoop-site.xml，将该属性在hadoop-site.xml里重新赋值。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; hadoop-default.xml的默认配置已经是local运行，不用任何修改，配置目录里唯一必须修改的是hadoop-env.sh 里<font face="Courier New">JAVA_HOME</font>的位置。</p>
<p><br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 将编译好的HadoopGrep与RegMapper.class 放入hadoop/build/classes/demo/hadoop/目录 找一个比较大的log文件放入一个目录，然后运行<br />
</p>
<div style="border: 1px solid rgb(204, 204, 204); padding: 4px 5px 4px 4px; font-size: 13px; width: 98%; background-color: rgb(238, 238, 238);"><span style="color: rgb(0, 0, 0);">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;hadoop</span> <span style="color: rgb(0, 0, 0);">/</span> <span style="color: rgb(0, 0, 0);">bin</span> <span style="color: rgb(0, 0, 0);">/</span> <span style="color: rgb(0, 0, 0);">hadoop&nbsp;demo.hadoop.HadoopGrep&nbsp;log文件所在目录&nbsp;任意的输出目录&nbsp;grep的字符串</span> </div>
<p><br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;查看输出目录的结果，查看hadoop/logs/里的运行日志。&nbsp;&nbsp;<br />
&nbsp;&nbsp;&nbsp;&nbsp; 在重新运行前，先删掉输出目录。<br />
&nbsp; </p>
<p><strong>3.2 单机集群运行模式</strong> </p>
<p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;现在来搞一下只有单机的集群.假设以完成3.1中的设置，本机名为hadoopserver<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 第1步.&nbsp;&nbsp;&nbsp; 然后修改hadoop-site.xml ，加入如下内容：</p>
<div style="border: 1px solid rgb(204, 204, 204); padding: 4px 5px 4px 4px; font-size: 13px; width: 98%; background-color: rgb(238, 238, 238);"><span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">fs.default.name</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">hadoopserver:9000</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
</span><span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
</span><span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">mapred.job.tracker</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">hadoopserver:9001</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
</span><span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
</span><span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">dfs.replication</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">name</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
&nbsp;&nbsp;</span> <span style="color: rgb(0, 0, 255);">&lt;</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);">1</span> <span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">value</span> <span style="color: rgb(0, 0, 255);">&gt;</span> <span style="color: rgb(0, 0, 0);"><br />
</span><span style="color: rgb(0, 0, 255);">&lt;/</span> <span style="color: rgb(128, 0, 0);">property</span> <span style="color: rgb(0, 0, 255);">&gt;</span> </div>
<p><br />
&nbsp;&nbsp;&nbsp; 从此就将运行从local文件系统转向了hadoop的hdfs系统，mapreduce的jobtracker也从local的进程内操作变成了分布式的任务系统，9000，9001两个端口号是随便选择的两个空余端口号。<br />
&nbsp; <br />
&nbsp; 另外，如果你的/tmp目录不够大，可能还要修改hadoop.tmp.dir属性。</p>
<p><br />
&nbsp; 第2步. 增加ssh不输入密码即可登陆。<br />
<br />
&nbsp;&nbsp;&nbsp; 因为Hadoop需要不用输入密码的ssh来进行调度，在不su的状态下，在自己的home目录运行ssh-keygen -t rsa ,然后一路回车生成密钥，再进入.ssh目录,cp id_rsa.pub authorized_keys<br />
&nbsp;&nbsp;&nbsp; 详细可以man 一下ssh, 此时执行ssh hadoopserver，不需要输入任何密码就能进入了。</p>
<p>&nbsp; 3.格式化namenode，执行<br />
&nbsp;&nbsp;bin/hadoop namenode -format<br />
<br />
&nbsp; 4.启动Hadoop<br />
&nbsp;&nbsp;&nbsp;&nbsp; 执行hadoop/bin/start-all.sh, 在本机启动namenode,datanode,jobtracker,tasktracker<br />
&nbsp; <br />
&nbsp; 5.现在将待查找的log文件放入hdfs,。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;执行hadoop/bin/hadoop dfs 可以看到它所支持的文件操作指令。<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;执行hadoop/bin/hadoop dfs put log文件所在目录 in ，则log文件目录已放入hdfs的/user/user-name/in 目录中</p>
<p>&nbsp; 6.现在来执行Grep操作<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; hadoop/bin/hadoop demo.hadoop.HadoopGrep in out<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 查看hadoop/logs/里的运行日志，重新执行前。运行hadoop/bin/hadoop dfs rmr out 删除out目录。<br />
<br />
&nbsp; 7.运行hadoop/bin/stop-all.sh 结束</p>
<p><strong>&nbsp; 3.3 集群运行模式<br />
</strong>&nbsp; 假设已执行完3.2的配置，假设第2台机器名是hadoopserver2<br />
&nbsp; 1.创建与hadoopserver同样的执行用户，将hadoop解压到相同的目录。<br />
<br />
&nbsp; 2.同样的修改haoop-env.sh中的JAVA_HOME 及修改与3.2同样的hadoop-site.xml<br />
<br />
&nbsp; 3. 将hadoopserver中的/home/username/.ssh/authorized_keys 复制到hadoopserver2,保证hadoopserver可以无需密码登陆hadoopserver2<br />
&nbsp;&nbsp;&nbsp;&nbsp; scp /home/username/.ssh/authorized_keys&nbsp; <a href="&#109;&#97;&#105;&#108;&#116;&#111;&#58;&#117;&#115;&#101;&#114;&#110;&#97;&#109;&#101;&#64;&#104;&#97;&#100;&#111;&#111;&#112;&#115;&#101;&#114;&#118;&#101;&#114;&#50;&#58;&#47;&#104;&#111;&#109;&#101;&#47;&#117;&#115;&#101;&#114;&#110;&#97;&#109;&#101;&#47;&#46;&#115;&#115;&#104;&#47;&#97;&#117;&#116;&#104;&#111;&#114;&#105;&#122;&#101;&#100;&#95;&#107;&#101;&#121;&#115;">username@hadoopserver2:/home/username/.ssh/authorized_keys</a><br />
&nbsp;<br />
&nbsp; 4.修改hadoop-server的hadoop/conf/slaves文件, 增加集群的节点，将localhost改为<br />
&nbsp;&nbsp;&nbsp; hadoop-server<br />
&nbsp;&nbsp;&nbsp; hadoop-server2<br />
<br />
&nbsp; 5.在hadoop-server执行hadoop/bin/start-all.sh<br />
&nbsp;&nbsp; 将会在hadoop-server启动namenode,datanode,jobtracker,tasktracker<br />
&nbsp;&nbsp; 在hadoop-server2启动datanode 和tasktracker<br />
&nbsp; <br />
&nbsp; 6.现在来执行Grep操作<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;hadoop/bin/hadoop demo.hadoop.HadoopGrep in out<br />
&nbsp;&nbsp;&nbsp; 重新执行前,运行hadoop/bin/hadoop dfs rmr out 删除out目录<br />
<br />
&nbsp; 7.运行hadoop/bin/stop-all.sh 结束。<br />
&nbsp;&nbsp;&nbsp; </p>
<h2>四、效率</h2>
<p>&nbsp;&nbsp; &nbsp;经测试，Hadoop并不是万用灵丹，很取决于文件的大小和数量，处理的复杂度以及群集机器的数量，相连的带宽，当以上四者并不大时，hadoop优势并不明显。<br />
&nbsp;&nbsp; &nbsp;比如，不用hadoop用java写的简单grep函数处理100M的log文件只要4秒，用了hadoop local的方式运行是14秒，用了hadoop单机集群的方式是30秒，用双机集群10M网口的话更慢，慢到不好意思说出来的地步。</p>
<img src ="http://www.blogjava.net/ashutc/aggbug/335863.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/ashutc/" target="_blank">西瓜</a> 2010-10-22 10:55 <a href="http://www.blogjava.net/ashutc/archive/2010/10/22/335863.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss>