﻿<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/"><channel><title>BlogJava-lucene + hadoop 分布式并行计算搜索框架-随笔分类-Nut(lucene + hadoop 分布式并行计算框架)</title><link>http://www.blogjava.net/nianzai/category/45541.html</link><description /><language>zh-cn</language><lastBuildDate>Tue, 19 Apr 2011 06:38:28 GMT</lastBuildDate><pubDate>Tue, 19 Apr 2011 06:38:28 GMT</pubDate><ttl>60</ttl><item><title>Nut开发环境搭建(虚拟机下hadoop0.20.2+zookeeper3.3.3+hbase0.90.2开发环境的搭建)</title><link>http://www.blogjava.net/nianzai/archive/2011/04/19/348560.html</link><dc:creator>nianzai</dc:creator><author>nianzai</author><pubDate>Tue, 19 Apr 2011 03:32:00 GMT</pubDate><guid>http://www.blogjava.net/nianzai/archive/2011/04/19/348560.html</guid><wfw:comment>http://www.blogjava.net/nianzai/comments/348560.html</wfw:comment><comments>http://www.blogjava.net/nianzai/archive/2011/04/19/348560.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/nianzai/comments/commentRss/348560.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/nianzai/services/trackbacks/348560.html</trackback:ping><description><![CDATA[<p><span style="font-size: 18pt">blog: <a href="http://www.blogjava.net/nianzai/">http://www.blogjava.net/nianzai/</a><br />
</span><br />
<span style="font-size: 18pt">code: <a href="http://code.google.com/p/nutla/">http://code.google.com/p/nutla/</a></span></p>
<p><br />
一、安装<br />
1、&nbsp;安装虚拟机 Oracle VM VirtualBox4.0.4<br />
2、&nbsp;在虚拟机下安装 Red Hat 6.0<br />
3、&nbsp;安装jdk jdk-6u24-linux-i586.bin 安装路径为：/home/nianzai/jdk1.6.0_24<br />
4、&nbsp;安装hadoop hadoop-0.20.2.tar.gz 安装路径为：/home/nianzai/hadoop-0.20.2<br />
5、&nbsp;安装zookeeper zookeeper-3.3.3.tar.gz 安装路径为：/home/nianzai/zookeeper-3.3.3<br />
6、&nbsp;安装hbase hbase-0.90.2.tar.gz 安装路径为：/home/nianzai/hbase-0.90.2</p>
<p>二、配置<br />
1、Linux配置<br />
ssh-keygen &#8211;t rsa -P ''<br />
cd .ssh<br />
cp id_rsa.pub authorized_keys</p>
<p>/etc/hosts里增加 192.168.195.128 master <br />
/etc/profile 里增加<br />
export JAVA_HOME=/home/nianzai/jdk1.6.0_24<br />
export PATH=$PATH:$JAVA_HOME/bin</p>
<p>2、hadoop配置<br />
hadoop-env.sh<br />
JAVA_HOME=/home/nianzai/jdk1.6.0._24</p>
<p>core-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;hadoop.tmp.dir&lt;/name&gt;<br />
&lt;value&gt;/home/nianzai/hadoop&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;fs.default.name&lt;/name&gt;<br />
&lt;value&gt;hdfs://master:9000&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>hdfs-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;dfs.replication&lt;/name&gt;<br />
&lt;value&gt;1&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>mapred-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;mapred.job.tracker&lt;/name&gt;<br />
&lt;value&gt;master:9001&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>masters<br />
master</p>
<p>sh hadoop namenode -format<br />
sh start-all.sh<br />
sh hadoop fs -mkdir input</p>
<p>3、zookeeper配置<br />
zoo.cfg<br />
tickTime=2000<br />
initLimit=10<br />
syncLimit=5<br />
dataDir=/home/nianzai/zkdata<br />
clientPort=2181</p>
<p>sh zkServer.sh start</p>
<p>4、hbase配置<br />
hbase-env.sh<br />
export JAVA_HOME=/home/nianzai/jdk1.6.0_24<br />
export HBASE_MANAGES_ZK=false</p>
<p>将hbase0.90.2 lib目录下hadoop-core-0.20-append-r1056497.jar删除，替换成hadoop0.20.2 下的hadoop-0.20.2-core.jar</p>
<p>hbase-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.rootdir&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;hdfs://master:9000/hbase&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.cluster.distributed&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;true&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.master.port&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;60000&lt;/value&gt;<br />
&nbsp; &lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.zookeeper.quorum&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;value&gt;master&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>regionservers<br />
master</p>
<p>sh start-hbase.sh<br />
</p>
<img src ="http://www.blogjava.net/nianzai/aggbug/348560.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/nianzai/" target="_blank">nianzai</a> 2011-04-19 11:32 <a href="http://www.blogjava.net/nianzai/archive/2011/04/19/348560.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>lucene + hadoop 分布式搜索运行框架 Nut 1.0a9</title><link>http://www.blogjava.net/nianzai/archive/2011/02/17/344533.html</link><dc:creator>nianzai</dc:creator><author>nianzai</author><pubDate>Thu, 17 Feb 2011 05:20:00 GMT</pubDate><guid>http://www.blogjava.net/nianzai/archive/2011/02/17/344533.html</guid><wfw:comment>http://www.blogjava.net/nianzai/comments/344533.html</wfw:comment><comments>http://www.blogjava.net/nianzai/archive/2011/02/17/344533.html#Feedback</comments><slash:comments>7</slash:comments><wfw:commentRss>http://www.blogjava.net/nianzai/comments/commentRss/344533.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/nianzai/services/trackbacks/344533.html</trackback:ping><description><![CDATA[<p><span style="font-size: 24pt"><a href="http://code.google.com/p/nutla/ "><span style="font-size: 24pt">http://code.google.com/p/nutla/ </span></a></span><br />
<br />
1、概述<br />
&nbsp;不管程序性能有多高，机器处理能力有多强，都会有其极限。能够快速方便的横向与纵向扩展是Nut设计最重要的原则，以此原则形成以分布式并行计算为核心的架构设计。以分布式并行计算为核心的架构设计是Nut区别于Solr、Katta的地方。</p>
<p>Nut是一个Lucene+Hadoop分布式并行计算搜索框架，能对千G以上索引提供7*24小时搜索服务。在服务器资源足够的情况下能达到每秒处理100万次的搜索请求。<br />
&nbsp;<br />
Nut开发环境：jdk1.6.0.23+lucene3.0.3+eclipse3.6.1+hadoop0.20.2+zookeeper3.3.2+hbase0.20.6+memcached+mongodb+linux</p>
<p><br />
2、特新<br />
&nbsp;a、热插拔<br />
&nbsp;b、可扩展<br />
&nbsp;c、高负载<br />
&nbsp;d、易使用,与现有项目无缝集成<br />
e、支持排序<br />
f、7*24服务<br />
g、失败转移 </p>
<p><br />
3、搜索流程<br />
Nut由Index、Search、Client、Cache和DB五部分构成。(Cache实现了对memcached的支持,DB实现了对hbase,mongodb的支持)<br />
Client处理用户请求和对搜索结果排序。Search对请求进行搜索，Search上只放索引，数据存储在DB中，Nut将索引和存储分离。Cache缓存的是搜索条件和结果文档id。DB存储着数据，Client根据搜索排序结果,取出当前页中的文档id从DB上读取数据。</p>
<p>用户发起搜索请求给由Nut Client构成的集群，由某个Nut Client根据搜索条件查询Cache服务器是否有该缓存，如果有缓存根据缓存的文档id直接从DB读取数据，如果没有缓存将随机选择一组搜索服务器组(Search Group i),将查询条件同时发给该组搜索服务器组里的n台搜索服务器，搜索服务器将搜索结果返回给Nut Client由其排序，取出当前页文档id，将搜索条件和当前文档id缓存，同时从DB读取数据。</p>
<p>&nbsp;</p>
<p>&nbsp;4、索引流程<br />
Hadoop Mapper/Reducer 建立索引。再将索引从HDFS分发到各个索引服务器。<br />
对索引的更新分为两种：删除和添加（更新分解为删除和添加）。<br />
a、删除<br />
在HDFS上删除索引，将生成的*.del文件分发到所有的索引服务器上去或者对HDFS索引目录删除索引再分发到对应的索引服务器上去。<br />
b、添加<br />
新添加的数据用另一台服务器来生成。<br />
删除和添加步骤可按不同定时策略来实现。</p>
<p><br />
5、Nut分布式并行计算特点<br />
Nut分布式并行计算虽然也是基于M/R模型，但是与Hadoop M/R模型是不同的。在Hadoop M/R模型中 Mapper和Reducer是一个完整的流程，Reducer依赖于Mapper。数据源通过Mapper分发本身就会消耗大量的I/O，并且是消耗I/O最大的部分。所以Hadoop M/R 并发是有限的。<br />
Nut M/R模型是将Mapper和Reducer分离，各自独立存在。在Nut中 索引以及索引管理 构成M,搜索以及搜索服务器组 构成 R。<br />
以一个分类统计来说明Nut分布式并行计算的流程。假设有10个分类，对任意关键词搜索要求统计出该关键词在这10个分类中的总数。同时假设有10组搜索服务器。索引以及索引管理进行索引数据的Mapper，这块是后台独自运行管理的。Nut Client将这10个分类统计分发到10组搜索服务器上，每组搜索服务器对其中一个分类进行Reducer，并且每组搜索服务器可进行多级Reducer。最后将最终结果返回给Nut Client。</p>
<p>&nbsp;</p>
<p>&nbsp;6、设计图</p>
<p>&nbsp;</p>
<p>&nbsp;<img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/nuta8.jpg" width="477" height="574" /></p>
<p>&nbsp;&nbsp;&nbsp;<br />
7、Zookeeper服务器状态管理策略</p>
<p>&nbsp;&nbsp;<img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/zka8.jpg" width="794" height="516" /></p>
<p>&nbsp;&nbsp;</p>
<p>在架构设计上通过使用多组搜索服务器可以支持每秒处理100万个搜索请求。<br />
每组搜索服务器能处理的搜索请求数在1万—1万5千之间。如果使用100组搜索服务器，理论上每秒可处理100万个搜索请求。</p>
<p><br />
假如每组搜索服务器有100份索引放在100台正在运行中搜索服务器(run)上，那么将索引按照如下的方式放在备用中搜索服务器(bak)上：index 1,index 2,index 3,index 4,index 5,index 6,index 7,index 8,index 9,index 10放在B 1 上，index 6,index 7,index 8,index 9,index 10,index 11,index 12,index 13,index 14,index 15放在B 2上。。。。。。index 96,index 97,index 98,index 99,index 100,index 5,index 4,index 3,index 2,index 1放在最后一台备用搜索服务器上。那么每份索引会存在3台机器中（1份正在运行中，2份备份中）。<br />
尽管这样设计每份索引会存在3台机器中，仍然不是绝对安全的。假如运行中的index 1,index 2,index 3同时宕机的话，那么就会有一份索引搜索服务无法正确启用。这样设计，作者认为是在安全性和机器资源两者之间一个比较适合的方案。</p>
<p>备用中的搜索服务器会定时检查运行中搜索服务器的状态。一旦发现与自己索引对应的服务器宕机就会向lock申请分布式锁，得到分布式锁的服务器就将自己加入到运行中搜索服务器组，同时从备用搜索服务器组中删除自己，并停止运行中搜索服务器检查服务。</p>
<p>为能够更快速的得到搜索结果，设计上将搜索服务器分优先等级。通常是将最新的数据放在一台或几台内存搜索服务器上。通常情况下前几页数据能在这几台搜索服务器里搜索到。如果在这几台搜索服务器上没有数据时再向其他旧数据搜索服务器上搜索。<br />
优先搜索等级的逻辑是这样的：9最大为搜索全部服务器并且9不能作为level标识。当搜索等级level为1，搜索优先级为1的服务器，当level为2时搜索优先级为1和2的服务器，依此类推。<br />
</p>
<img src ="http://www.blogjava.net/nianzai/aggbug/344533.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/nianzai/" target="_blank">nianzai</a> 2011-02-17 13:20 <a href="http://www.blogjava.net/nianzai/archive/2011/02/17/344533.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Nut开发环境搭建(虚拟机下hadoop0.20.2+zookeeper3.3.1+hbase0.20.6开发环境的搭建)</title><link>http://www.blogjava.net/nianzai/archive/2010/11/17/338249.html</link><dc:creator>nianzai</dc:creator><author>nianzai</author><pubDate>Wed, 17 Nov 2010 05:43:00 GMT</pubDate><guid>http://www.blogjava.net/nianzai/archive/2010/11/17/338249.html</guid><wfw:comment>http://www.blogjava.net/nianzai/comments/338249.html</wfw:comment><comments>http://www.blogjava.net/nianzai/archive/2010/11/17/338249.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/nianzai/comments/commentRss/338249.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/nianzai/services/trackbacks/338249.html</trackback:ping><description><![CDATA[<p><span style="font-size: 14pt"><a href="http://www.blogjava.net/nianzai/">http://www.blogjava.net/nianzai/</a></span><a href="http://www.blogjava.net/nianzai/"><br />
<br />
</a><a style="font-size: 14pt" href="http://code.google.com/p/nutla/">http://code.google.com/p/nutla/</a><br />
<br />
一、安装<br />
1、&nbsp;安装虚拟机 vmware6.5.2<br />
2、&nbsp;在虚拟机下安装Linux Fedora14<br />
3、&nbsp;安装jdk jdk-6u22-linux-i586.bin 安装路径为：/home/nianzai/jdk1.6.0_22<br />
4、&nbsp;安装hadoop hadoop-0.20.2.tar.gz 安装路径为：/home/nianzai/hadoop-0.20.2<br />
5、&nbsp;安装zookeeper zookeeper-3.3.1.tar.gz 安装路径为：/home/nianzai/zookeeper-3.3.1<br />
6、&nbsp;安装hbase hbase-0.20.6.tar.gz 安装路径为：/home/nianzai/hbase-0.20.6</p>
<p>二、配置<br />
1、Linux配置<br />
ssh-keygen &#8211;t rsa -P ''<br />
cd .ssh<br />
cp id_rsa.pub authorized_keys</p>
<p>/etc/hosts里增加 192.168.195.128 nz 并且将127.0.0.1 改为 192.168.195.128</p>
<p>2、hadoop配置<br />
hadoop-env.sh<br />
JAVA_HOME=/home/nianzai/jdk1.6.0._22</p>
<p>core-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;hadoop.tmp.dir&lt;/name&gt;<br />
&lt;value&gt;/tmp/hadoop-nianzai&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;fs.default.name&lt;/name&gt;<br />
&lt;value&gt;hdfs://nz:9000&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>hdfs-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;dfs.replication&lt;/name&gt;<br />
&lt;value&gt;1&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>mapred-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&lt;name&gt;mapred.job.tracker&lt;/name&gt;<br />
&lt;value&gt;nz:9001&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>sh hadoop namenode -format<br />
sh start-all.sh<br />
sh hadoop fs -mkdir input</p>
<p>3、zookeeper配置<br />
zoo.cfg<br />
tickTime=2000<br />
initLimit=10<br />
syncLimit=5<br />
dataDir=/home/nianzai/zkdata<br />
clientPort=2181</p>
<p>sh zkServer.sh start</p>
<p>4、hbase配置<br />
hbase-env.sh<br />
export JAVA_HOME=/home/nianzai/jdk1.6.0_22<br />
export HBASE_MANAGES_ZK=false</p>
<p>hbase-site.xml<br />
&lt;configuration&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.rootdir&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;hdfs://nz:9000/hbase&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.cluster.distributed&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;true&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.master.port&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp; &lt;value&gt;60000&lt;/value&gt;<br />
&nbsp; &lt;/property&gt;<br />
&lt;property&gt;<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;name&gt;hbase.zookeeper.quorum&lt;/name&gt;<br />
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;value&gt;nz&lt;/value&gt;<br />
&lt;/property&gt;<br />
&lt;/configuration&gt;</p>
<p>regionservers<br />
nz</p>
<p>sh start-hbase.sh<br />
</p>
<img src ="http://www.blogjava.net/nianzai/aggbug/338249.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/nianzai/" target="_blank">nianzai</a> 2010-11-17 13:43 <a href="http://www.blogjava.net/nianzai/archive/2010/11/17/338249.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>lucene + hadoop 分布式搜索运行框架 Nut 1.0a8</title><link>http://www.blogjava.net/nianzai/archive/2010/10/27/336255.html</link><dc:creator>nianzai</dc:creator><author>nianzai</author><pubDate>Wed, 27 Oct 2010 02:38:00 GMT</pubDate><guid>http://www.blogjava.net/nianzai/archive/2010/10/27/336255.html</guid><wfw:comment>http://www.blogjava.net/nianzai/comments/336255.html</wfw:comment><comments>http://www.blogjava.net/nianzai/archive/2010/10/27/336255.html#Feedback</comments><slash:comments>11</slash:comments><wfw:commentRss>http://www.blogjava.net/nianzai/comments/commentRss/336255.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/nianzai/services/trackbacks/336255.html</trackback:ping><description><![CDATA[<p><span style="font-size: 24pt"><a href="http://code.google.com/p/nutla/ "><span style="font-size: 24pt">http://code.google.com/p/nutla/ </span></a></span><br />
<br />
1、概述<br />
&nbsp;不管程序性能有多高，机器处理能力有多强，都会有其极限。能够快速方便的横向与纵向扩展是Nut设计最重要的原则。<br />
&nbsp;Nut是一个Lucene+Hadoop分布式搜索框架，能对千G以上索引提供7*24小时搜索服务。在服务器资源足够的情况下能达到每秒处理100万次的搜索请求。<br />
&nbsp;Nut开发环境：jdk1.6.0.21+lucene3.0.2+eclipse3.6.1+hadoop0.20.2+zookeeper3.3.1+hbase0.20.6+memcached+linux</p>
<p>2、特新<br />
&nbsp;a、热插拔<br />
&nbsp;b、可扩展<br />
&nbsp;c、高负载<br />
&nbsp;d、易使用,与现有项目无缝集成<br />
e、支持排序<br />
f、7*24服务<br />
g、失败转移 </p>
<p>3、搜索流程<br />
Nut由Index、Search、Client、Cache和DB五部分构成。(Cache默认使用memcached,DB默认使用hbase)<br />
Client处理用户请求和对搜索结果排序。Search对请求进行搜索，Search上只放索引，数据存储在DB中，Nut将索引和存储分离。Cache缓存的是搜索条件和结果文档id。DB存储着数据，Client根据搜索排序结果,取出当前页中的文档id从DB上读取数据。</p>
<p>用户发起搜索请求给由Nut Client构成的集群，由某个Nut Client根据搜索条件查询Cache服务器是否有该缓存，如果有缓存根据缓存的文档id直接从DB读取数据，如果没有缓存将随机选择一组搜索服务器组(Search Group i),将查询条件同时发给该组搜索服务器组里的n台搜索服务器，搜索服务器将搜索结果返回给Nut Client由其排序，取出当前页文档id，将搜索条件和当前文档id缓存，同时从DB读取数据。<br />
<br />
<img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/nuta8.jpg" /><br />
</p>
<p>4、索引流程<br />
Hadoop Mapper/Reducer 建立索引。再将索引从HDFS分发到各个索引服务器。<br />
对索引的更新分为两种：删除和添加（更新分解为删除和添加）。<br />
a、删除<br />
在HDFS上删除索引，将生成的*.del文件分发到所有的索引服务器上去或者对HDFS索引目录删除索引再分发到对应的索引服务器上去。<br />
b、添加<br />
新添加的数据用另一台服务器来生成。<br />
删除和添加步骤可按不同定时策略来实现。</p>
<p>5、Zookeeper服务器状态管理策略</p>
<p>在架构设计上通过使用多组搜索服务器可以支持每秒处理100万个搜索请求。<br />
每组搜索服务器能处理的搜索请求数在1万—1万5千之间。如果使用100组搜索服务器，理论上每秒可处理100万个搜索请求。</p>
<p><img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/zka8.jpg" /><br />
假如每组搜索服务器有100份索引放在100台正在运行中搜索服务器(run)上，那么将索引按照如下的方式放在备用中搜索服务器(bak)上：index 1,index 2,index 3,index 4,index 5,index 6,index 7,index 8,index 9,index 10放在B 1 上，index 6,index 7,index 8,index 9,index 10,index 11,index 12,index 13,index 14,index 15放在B 2上。。。。。。index 96,index 97,index 98,index 99,index 100,index 5,index 4,index 3,index 2,index 1放在最后一台备用搜索服务器上。那么每份索引会存在3台机器中（1份正在运行中，2份备份中）。<br />
尽管这样设计每份索引会存在3台机器中，仍然不是绝对安全的。假如运行中的index 1,index 2,index 3同时宕机的话，那么就会有一份索引搜索服务无法正确启用。这样设计，作者认为是在安全性和机器资源两者之间一个比较适合的方案。</p>
<p>备用中的搜索服务器会定时检查运行中搜索服务器的状态。一旦发现与自己索引对应的服务器宕机就会向lock申请分布式锁，得到分布式锁的服务器就将自己加入到运行中搜索服务器组，同时从备用搜索服务器组中删除自己，并停止运行中搜索服务器检查服务。</p>
<p>为能够更快速的得到搜索结果，设计上将搜索服务器分优先等级。通常是将最新的数据放在一台或几台内存搜索服务器上。通常情况下前几页数据能在这几台搜索服务器里搜索到。如果在这几台搜索服务器上没有数据时再向其他旧数据搜索服务器上搜索。<br />
优先搜索等级的逻辑是这样的：9最大为搜索全部服务器并且9不能作为level标识。当搜索等级level为1，搜索优先级为1的服务器，当level为2时搜索优先级为1和2的服务器，依此类推。<br />
</p>
<img src ="http://www.blogjava.net/nianzai/aggbug/336255.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/nianzai/" target="_blank">nianzai</a> 2010-10-27 10:38 <a href="http://www.blogjava.net/nianzai/archive/2010/10/27/336255.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>lucene + hadoop 分布式搜索运行框架 Nut 1.0a7</title><link>http://www.blogjava.net/nianzai/archive/2010/09/25/332836.html</link><dc:creator>nianzai</dc:creator><author>nianzai</author><pubDate>Sat, 25 Sep 2010 07:41:00 GMT</pubDate><guid>http://www.blogjava.net/nianzai/archive/2010/09/25/332836.html</guid><wfw:comment>http://www.blogjava.net/nianzai/comments/332836.html</wfw:comment><comments>http://www.blogjava.net/nianzai/archive/2010/09/25/332836.html#Feedback</comments><slash:comments>4</slash:comments><wfw:commentRss>http://www.blogjava.net/nianzai/comments/commentRss/332836.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/nianzai/services/trackbacks/332836.html</trackback:ping><description><![CDATA[<span style="font-size: 24pt"><a href="http://code.google.com/p/nutla/ "><span style="font-size: 24pt">http://code.google.com/p/nutla/ </span></a></span><br />
<br />
<p>1、概述<br />
&nbsp;只为lucene提供分布式搜索框架。7*24千G以上索引文件支持数千万级的用户搜索访问。<br />
&nbsp;Nut开发环境：jdk1.6.0.21+lucene3.0.2+eclipse3.6+hadoop0.20.2+zookeeper3.3.1+linux</p>
<p>2、特新<br />
&nbsp;a、热插拔<br />
&nbsp;b、可扩展<br />
&nbsp;c、高负载<br />
&nbsp;d、易使用,与现有项目无缝集成<br />
e、支持排序<br />
f、7*24服务<br />
g、失败转移 </p>
<p>3、搜索流程<br />
Nut由Index、Search、Client、Cache和DB五部分构成。<br />
Client处理用户请求和对搜索结果排序。Search对请求进行搜索，Search上只放索引，数据存储在DB中，Nut将索引和存储分离。Cache缓存的是搜索条件和结果文档id。DB存储着数据，Client根据搜索排序结果,取出当前页中的文档id从DB上读取数据。</p>
<p>用户发起搜索请求给由Nut Client构成的集群，由某个Nut Client根据搜索条件查询Cache服务器是否有该缓存，如果有缓存根据缓存的文档id直接从DB读取数据，如果没有缓存将查询条件同时发给后面的n台搜索服务器，搜索服务器将搜索结果返回给Nut Client由其排序，取出当前页文档id，将搜索条件和当前文档id缓存，同时从DB读取数据。</p>
<p>4、索引流程<br />
Hadoop Mapper/Reducer 建立索引。再将索引从HDFS分发到各个索引服务器。<br />
对索引的更新分为两种：删除和添加（更新分解为删除和添加）。<br />
a、删除<br />
在HDFS上删除索引，将生成的*.del文件分发到所有的索引服务器上去或者对HDFS索引目录删除索引再分发到对应的索引服务器上去。<br />
b、添加<br />
新添加的数据用另一台服务器来生成。<br />
删除和添加步骤可按不同定时策略来实现。</p>
<p>&nbsp;<img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/nuta7.jpg" /></p>
<p><br />
5、Zookeeper服务器状态管理策略<br />
</p>
<p><img border="0" alt="" src="http://www.blogjava.net/images/blogjava_net/nianzai/zk.jpg" /><br />
假如我们有100份索引放在100台正在运行中搜索服务器上，那么将索引按照如下的方式放在备用中搜索服务器上：index 1,index 2,index 3,index 4,index 5,index 6,index 7,index 8,index 9,index 10放在B 1 上，index 6,index 7,index 8,index 9,index 10,index 11,index 12,index 13,index 14,index 15放在B 2上。。。。。。index 96,index 97,index 98,index 99,index 100,index 5,index 4,index 3,index 2,index 1放在最后一台备用搜索服务器上。那么每份索引会存在3台机器中（1份正在运行中，2份备份中）。<br />
尽管这样设计每份索引会存在3台机器中，仍然不是绝对安全的。假如运行中的index 1,index 2,index 3同时宕机的话，那么就会有一份索引搜索服务无法正确启用。那么这样设计，作者认为是在安全性和机器资源两者之间一个比较适合的方案。</p>
<p>备用中的搜索服务器会定时检查运行中搜索服务器的状态。一旦发现与自己索引对应的服务器宕机就会先向zookeeper申请分布式锁，得到锁的服务器就将自己加入到运行中搜索服务器组，同时从备用搜索服务器组中删除自己，并停止运行中搜索服务器检查服务。<br />
</p>
<img src ="http://www.blogjava.net/nianzai/aggbug/332836.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/nianzai/" target="_blank">nianzai</a> 2010-09-25 15:41 <a href="http://www.blogjava.net/nianzai/archive/2010/09/25/332836.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss>