﻿<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:trackback="http://madskills.com/public/xml/rss/module/trackback/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/"><channel><title>语源科技BlogJava-programmers</title><link>http://www.blogjava.net/programmers/</link><description /><language>zh-cn</language><lastBuildDate>Sun, 12 Apr 2026 05:58:39 GMT</lastBuildDate><pubDate>Sun, 12 Apr 2026 05:58:39 GMT</pubDate><ttl>60</ttl><item><title>分布式事务(一)：Two-phase commit &amp;amp; Three-phase commit</title><link>http://www.blogjava.net/programmers/archive/2009/12/22/306953.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Tue, 22 Dec 2009 15:01:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/22/306953.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/306953.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/22/306953.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/306953.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/306953.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]1_BC1FB76141B445F19DCC07A745157526_D2AEC09E908B44FFBDA065696C37C7E7"><p><font style="BACKGROUND-COLOR: transparent">Two-phase commit(</font><a href="http://en.wikipedia.org/wiki/Two-phase_commit_protocol"><font style="BACKGROUND-COLOR: transparent">http://en.wikipedia.org/wiki/Two-phase_commit_protocol</font></a><font style="BACKGROUND-COLOR: transparent">)是分布式事务最基础的协议，Three-phase commit(</font><a href="http://en.wikipedia.org/wiki/Three-phase_commit_protocol"><font style="BACKGROUND-COLOR: transparent">http://en.wikipedia.org/wiki/Three-phase_commit_protocol</font></a><font style="BACKGROUND-COLOR: transparent">)主要解决Two-phase commit中协调者宕机问题。</font></p> <p><font style="BACKGROUND-COLOR: transparent">Two-phase commit的算法实现 (from &lt;&lt;Distributed System: Principles and Paradigms&gt;&gt;)：</font></p> <p><font style="BACKGROUND-COLOR: transparent">协调者(Coordinator)：</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; write START_2PC to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; multicast VOTE_REQUEST to all participants;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; while not all votes have been collected {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wait for any incoming vote;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; if timeout {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write GLOBAL_ABORT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; multicast GLOBAL_ABORT to all participants;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; exit;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; record vote;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; }</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; if all participants sent VOTE_COMMIT and coordinator votes COMMIT {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write GLOBAL_COMMIT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; multicast GLOBAL_COMMIT to all participants;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; } else {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write GLOBAL_ABORT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; multicast GLOBAL_ABORT to all participants;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; }</font></p> <p><font style="BACKGROUND-COLOR: transparent">参与者(Participants)</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; write INIT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; wait for VOTE_REQUEST from coordinator;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; if timeout {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write VOTE_ABORT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; exit;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; }</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp; if participant votes COMMIT {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write VOTE_COMMIT to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; send VOTE_COMMIT to coordinator;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wait for DECISION from coordinator;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; if timeout {</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; multicast DECISION_REQUEST to other participants;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wait until DECISION is received;&nbsp; /* remain blocked*/</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write DECISION to local log;</font></p> <p><font style="BACKGROUND-COLOR: transparent">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }</font></p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; if DECISION == GLOBAL_COMMIT</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write GLOBAL_COMMIT to local log;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; else if DECISION == GLOBAL_ABORT</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write GLOBAL_ABORT to local log;</p> <p>&nbsp;&nbsp;&nbsp; } else {</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; write VOTE_ABORT to local log;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; send VOTE_ABORT to coordinator;</p> <p>&nbsp;&nbsp;&nbsp; }</p> <p>另外，每个参与者维护一个线程专门处理其它参与者的DECISION_REQUEST请求，处理线程流程如下：</p> <p>&nbsp;&nbsp;&nbsp; while true {</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wait until any incoming DECISION_REQUEST is received;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; read most recently recorded STATE from the local log;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; if STATE == GLOBAL_COMMIT</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; send GLOBAL_COMMIT to requesting participant;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; else if STATE == INIT or STATE == GLOBAL_ABORT;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; send GLOBAL_ABORT to requesting participant;</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; else</p> <p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; skip;&nbsp; /* participant remains blocked */</p> <p>&nbsp;&nbsp;&nbsp; }</p> <p>从上述的协调者与参与者的流程可以看出，如果所有参与者VOTE_COMMIT后协调者宕机，这个时候每个参与者都无法单独决定全局事务的最终结果(GLOBAL_COMMIT还是GLOBAL_ABORT)，也无法从其它参与者获取，整个事务一直阻塞到协调者恢复；如果协调者出现类似磁盘坏这种永久性错误，该事务将成为被永久遗弃的孤儿。问题的解决有如下思路：</p> <p>1. 协调者持久化数据定期备份。为了防止协调者出现永久性错误，这是一种代价最小的解决方法，不容易引入bug，但是事务被阻塞的时间可能特别长，比较适合银行这种正确性高于一切的系统。</p> <p>2. Three-phase Commit。这是理论上的一种方法，实现起来复杂且效率低。思路如下：假设参与者机器不可能出现超过一半同时宕机的情况，如果协调者宕机，我们需要从活着的超过一半的参与者中得出事务的全局结果。由于不可能知道已经宕机的参与者的状态，所以引入一个新的参与者状态PRECOMMIT，参与者成功执行一个事务需要经过INIT, READY, PRECOMMIT，最后到COMMIT状态；如果至少有一个参与者处于PRECOMMIT或者COMMIT，事务成功；如果至少一个参与者处于INIT或者ABORT，事务失败；如果所有的参与者都处于READY(至少一半参与者活着)，事务失败，即使原先宕机的参与者恢复后处于PRECOMMIT状态，也会因为有其它参与者处于ABORT状态而回滚。PRECOMMIT状态的引入给了宕机的参与者回滚机会，所以Three-phase commit在超过一半的参与者活着的时候是不阻塞的。不过，Three-phase Commit只能算是是理论上的探索，效率低并且没有解决网络分区问题。</p> <p>3. Paxos解决协调者单点问题。Jim Gray和Lamport合作了一篇论文讲这个方法，很适合互联网公司的超大规模集群，Google的Megastore事务就是这样实现的，不过问题在于Paxos和Two-phase Commit都不简单，需要有比较靠谱（代码质量高）的小团队设计和编码才行。后续的blog将详细阐述该方法。</p> <p><font style="BACKGROUND-COLOR: transparent" color="#000000">总之，分布式事务只能是系统开发者的乌托邦式理想，Two-phase commit的介入将导致涉及多台机器的事务之间完全串行，没有代价的分布式事务是不存在的。</font></p> <p>&nbsp;</p></div><img src ="http://www.blogjava.net/programmers/aggbug/306953.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-22 23:01 <a href="http://www.blogjava.net/programmers/archive/2009/12/22/306953.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>再说Bigtable replication</title><link>http://www.blogjava.net/programmers/archive/2009/12/18/306617.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Fri, 18 Dec 2009 14:05:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/18/306617.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/306617.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/18/306617.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/306617.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/306617.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]1_6F5946E5940941189CAC4D6A2966F3B2_65598ACB50154F38A4CADFAAEAE527FA"><p>前面我的一篇文章<a href="http://hi.baidu.com/knuthocean/blog/item/12bb9f3dea0e400abba1673c.html">http://hi.baidu.com/knuthocean/blog/item/12bb9f3dea0e400abba1673c.html</a>引用了对Google App Engine工程师关于Bigtable/Megastore replication的文章。当时留下了很多疑问，比如：为什么Google Bigtable 是按照column family级别而不是按行执行replication的？今天重新思考了Bigtable replication问题，有如下体会：</p> <p>1. Bigtable/GFS的设计属于分层设计，和文件系统/数据库分层设计原理一致，通过系统隔离解决工程上的问题。这种分层设计带来了两个问题，一个是性能问题，另外一个就是Replication问题。由于存储节点和服务节点可能不在一台机器，理论上总是存在性能问题，这就要求我们在加载/迁移Bigtable子表(Bigtable tablet)的时候考虑本地化因素；另外，GFS有自己的replication机制保证存储的可靠性，Bigtable通过分离服务节点和存储节点获得了很大的灵活性，且Bigtable的宕机恢复时间可以做到很短。对于很多对实时性要求不是特别高的应用Bigtable由于服务节点同时只有一个，既节约资源又避免了单点问题。然后，Bigtable tablet服务过于灵活导致replication做起来极其困难。比如，tablet的分裂和合并机制导致多个tablet(一个只写，其它只读)服务同一段范围的数据变得几乎不可能。</p> <p>2. Google replication分为两种机制，基于客户端和基于Tablet Server。分述如下：</p> <p>2-1). 基于客户端的replication。这种机制比较简单，实现如下：客户端读/写操作均为异步操作，每个写操作都尝试写两个Bigtable集群，任何一个写成功就返回用户，客户端维护一个retry list，不断重试失败的写操作。读操作发到两个集群，任何一个集群读取成功均可。然后，这样做有两个问题：</p> <p>&nbsp;&nbsp;&nbsp; a. 客户端不可靠，可能因为各种问题，包括程序问题退出，retry list丢失导致两个集群的数据不一致；</p> <p>&nbsp;&nbsp;&nbsp; b. 多个客户端并发操作时无法保证顺序性。集群A收到的写操作可能是"DEL item; PUT item"；集群B的可能是"PUT item; DEL item"。</p> <p>2-2). 基于Tablet Server的replication。这种机制实现较为复杂，目的是为了保证读服务，写操作的延时仍然可能比较长。两个集群，一个为主集群，提供读/写服务；一个为slave集群，提供只读服务，两个集群维持最终一致性。对于一般的读操作，尽量读取主集群，如果主集群不可以访问则读取slave集群；对于写操作，首先将写操作提交到主集群的Tablet Server，主集群的Tablet Server维护slave集群的元数据信息，并维护一个后台线程不断地将积攒的用户表格写操作提交到slave集群进行日志回放(group commit)。对于一般的tablet迁移，操作逻辑和Bigtable论文中的完全一致；主集群如果发生了机器宕机，则除了回放commit log外，还需要完成宕机的Tablet Server遗留的后台备份任务。之所以要按照column family级别而不是按行复制，是为了提高压缩率从而提高备份效率。如果主集群写操作日志的压缩率大于备份数据的压缩率，则可能出现备份不及时，待备份数据越来越多的问题。</p> <p>假设集群A为主集群，集群B是集群A的备份，集群切换时先停止集群A的写服务，将集群A余下的备份任务备份到集群B后切换到集群B；如果集群A不可访问的时间不可预知，可以选择直接切换到集群B，这样会带来一致性问题。且由于Bigtable是按列复制的，最后写入的一些行的事务性无法保证。不过由于写操作数据还是保存在集群A的，所以用户可以知道丢了哪些数据，很多应用可以通过重新执行A集群遗留的写操作进行灾难恢复。Google的App Engine也提供了这种查询及重做丢失的写操作的工具。</p> <p>想法不成熟，有问题联系：knuthocean@163.com</p></div><img src ="http://www.blogjava.net/programmers/aggbug/306617.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-18 22:05 <a href="http://www.blogjava.net/programmers/archive/2009/12/18/306617.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Dynamo(四)：Dynamo优化及优缺点</title><link>http://www.blogjava.net/programmers/archive/2009/12/05/304848.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Sat, 05 Dec 2009 07:19:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/05/304848.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304848.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/05/304848.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304848.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304848.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]1_9B3EC1F09CD54088A78E9CC870893A57_9F26375D0802481EA4C3060BCB27462D"><p><strong>负载平衡策略</strong></p> <p>Dynamo的负载平衡取决于如何给每台机器分配虚拟节点号。由于集群环境的异构性，每台物理机器包含多个虚拟节点。一般有如下两种分配节点号的方法：</p> <p>1. 随机分配。每台物理节点加入时根据其配置情况随机分配S个Token(节点号)。这种方法的负载平衡效果还是不错的，因为自然界的数据大致是比较随机的，虽然可能出现某段范围的数据特别多的情况（如baidu, sina等域名下的网页特别多），但是只要切分足够细，即S足够大，负载还是比较均衡的。这个方法的问题是可控性较差，新节点加入/离开系统时，集群中的原有节点都需要扫描所有的数据从而找出属于新节点的数据，Merkle Tree也需要全部更新；另外，增量归档/备份变得几乎不可能。</p> <p>2. 数据范围等分+随机分配。为了解决方法1的问题，首先将数据的Hash空间等分为Q = N * S份 (N=机器个数，S=每台机器的虚拟节点数），然后每台机器随机选择S个分割点作为Token。和方法1一样，这种方法的负载也比较均衡，且每台机器都可以对属于每个范围的数据维护一个逻辑上的Merkle Tree，新节点加入/离开时只需扫描部分数据进行同步，并更新这部分数据对应的逻辑Merkle Tree，增量归档也变得简单。该方法的一个问题是对机器规模需要做出比较合适的预估，随着业务量的增长，可能需要重新对数据进行划分。</p> <p>不管采用哪种方法，Dynamo的负载平衡效果还是值得担心的。</p> <p><strong>客户端缓存及前后台任务资源分配</strong></p> <p>客户端缓存机器信息可以减少一次在DHT中定位目标机器的网络交互。由于客户端数量不可控，这里缓存采用客户端pull的方式更新，Dynamo中每隔10s或者读/写操作发现缓存信息不一致时客户端更新一次缓存信息。</p> <p>Dynamo中同步操作、写操作重试等后台任务较多，为了不影响正常的读写服务，需要对后台任务能够使用的资源做出限制。Dynamo中维护一个资源授权系统。该系统将整个机器的资源切分成多个片，监控60s内的磁盘读写响应时间，事务超时时间及锁冲突情况，根据监控信息算出机器负载从而动态调整分配给后台任务的资源片个数。</p> <p><strong>Dynamo的优点</strong></p> <p>1. 设计简单，组合利用P2P的各种成熟技术，模块划分好，代码复用程度高。</p> <p>2. 分布式逻辑与单机存储引擎逻辑基本隔离。很多公司有自己的单机存储引擎，可以借鉴Dynamo的思想加入分布式功能。</p> <p>3. NWR策略可以根据应用自由调整，这个思想已经被Google借鉴到其下一代存储基础设施中。</p> <p>4. 设计上天然没有单点，且基本没有对系统时钟一致性的依赖。而在Google的单Master设计中，Master是单点，需要引入复杂的分布式锁机制来解决，且Lease机制需要对机器间时钟同步做出假设。</p> <p><strong>Dynamo的缺陷</strong></p> <p>1. 负载平衡相比单Master设计较不可控；负载平衡策略一般需要预估机器规模，不能无缝地适应业务动态增长。</p> <p>2. 系统的扩展性较差。由于增加机器需要给机器分配DHT算法所需的编号，操作复杂度较高，且每台机器存储了整个集群的机器信息及数据文件的Merkle Tree信息，机器最大规模只能到几千台。</p> <p>3. 数据一致性问题。多个客户端的写操作有顺序问题，而在GFS中可以通过只允许Append操作得到一个比较好的一致性模型。</p> <p>4. 数据存储不是有序，无法执行Mapreduce；Mapreduce是目前允许机器故障，具有强扩展性的最好的并行计算模型，且有开源的Hadoop可以直接使用，Dynamo由于数据存储依赖Hash无法直接执行Mapreduce任务。</p> <p>&nbsp;</p></div><img src ="http://www.blogjava.net/programmers/aggbug/304848.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-05 15:19 <a href="http://www.blogjava.net/programmers/archive/2009/12/05/304848.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Dynamo(三)：Dynamo的异常处理及读/写流程</title><link>http://www.blogjava.net/programmers/archive/2009/12/04/304829.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Fri, 04 Dec 2009 15:05:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/04/304829.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304829.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/04/304829.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304829.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304829.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]1_A30A21C49A2E4AF398CB29BC5E601FEF_E4F6E3296F5E4F18A5E00B4AA49BB494">
<div>
<p>异常处理</p>
<p>Dynamo中把异常分为两种类型，临时性的异常和永久性异常。服务器程序运行时一般通过类似supervise的监控daemon启动，出现core dump等异常情况时自动重启。这种异常是临时性的，其它异常如硬盘报修或机器报废等由于其持续时间太长，称之为永久性的。回顾Dynamo的设计，一份数据被写到N, N+1, ... N+K-1这K台机器上，如果机器N+i (0 &lt;= i &lt;= K-1)宕机，原本写入该机器的数据转移到机器N+K，机器N+K定时ping机器N+i，如果在指定的时间T内N+i重新提供服务，机器N+K将启动传输任务将暂存的数据发送给机器N+i；如果超过了时间T机器N+i还是处于宕机状态，这种异常被认为是永久性的，这时需要借助Merkle Tree机制进行数据同步。这里的问题在于时间T的选择，所以Dynamo的开发人员后来干脆把所有程序检测出来的异常认为是临时性的，并提供给管理员一个utility工具，用来显示指定一台机器永久性下线。由于数据被存储了K份，一台机器下线将导致后续的K台机器出现数据不一致的情况。这是因为原本属于机器N的数据由于机器下线可能被临时写入机器N+1, ... N+K。如果机器N出现永久性异常，后续的K台机器都需要服务它的部分数据，这时它们都需要选择冗余机器中较为空闲的一台进行同步。Merkle Tree同步的原理很简单，每个非叶子节点对应多个文件，为其所有子节点值组合以后的Hash值，叶子节点对应单个数据文件，为文件内容的Hash值。这样，任何一个数据文件不匹配都将导致从该文件对应的叶子节点到根节点的所有节点值不同。每台机器维护K棵Merkle Tree，机器同步时首先传输Merkle Tree信息，并且只需要同步从根到叶子的所有节点值均不相同的文件。</p>
<p>读/写流程</p>
<p>客户端的读/写请求首先传输到缓存的一台机器，根据预先配置的K、W和R值，对于写请求，根据DHT算法计算出数据所属的节点后直接写入后续的K个节点，等到W个节点返回成功时返回客户端，如果写请求失败将加入retry_list不断重试。如果某台机器发生了临时性异常，将数据写入后续的备用机器并在备用机器中记录临时异常的机器信息。对于读请求，根据DHT算法计算出数据所属节点后根据负载策略选择R个节点，从中读取R份数据，如果数据一致，直接返回客户端；如果数据不一致，采用vector clock的方法解决冲突。Dynamo系统默认的策略是选择最新的数据，当然用户也可以自定义冲突处理方法。每个写入系统的&lt;key, value&gt;对都记录一个vector lock信息，vector lock就是一系列&lt;机器节点号, 版本号/时间戳&gt;对，记录每台机器对该数据的最新更新版本信息。如下图：</p>
<p><img src="http://www.blogjava.net/images/blogjava_net/programmers/dynamo.gif" alt="" border="0" /><br />
</p>
<p>读取时进行冲突解决，如果一台机器读到的数据的vector lock记录的所有版本信息都小于另一台机器，直接返回vector lock较大的数据；如果二者是平行版本，根据时间戳选择最新的数据或者通过用户自定义策略解决冲突。读请求除了返回数据&lt;key, value&gt;值以外还返回vector lock信息，后续的写操作需要带上该信息。</p>
<p>问题1：垃圾数据如何回收？</p>
<p>Dynamo的垃圾回收机制主要依赖每个节点上的存储引擎，如Berkely db存储引擎，merge-dump存储引擎等。其它操作，如Merkle Tree同步产生的垃圾文件回收可以和底层存储引擎配合完成。</p>
<p>问题2：Dynamo有没有可能丢数据？</p>
<p>关键在于K, W, R的设置。假设一个读敏感应用设置K=3, W=3, R=1，待处理的数据原本属于节点A, B, C，节点B出现临时性故障的过程中由节点D代替。在节点B出现故障到节点B同步完成节点D暂存的修改这段时间内，如果读请求落入节点B或者D都将出现丢数据的问题。这里需要适当处理下，对于B节点下线的情况，由于其它机器要么缓存了B节点已下线信息，要么读取时将发现B节点处于下线状态，这是只需要将请求转发其它节点即可；对于B节点上线情况，可以等到B节点完全同步以后才开始提供读服务。对于设置W&lt;K的应用，Dynamo读取时需要解决冲突，可能丢数据。总之，Dynamo中可以保证读取的机器都是有效的（处于正常服务状态），但W != K时不保证所有的有效机器均同步了所有更新操作。</p>
<p>问题3：Dynamo的写入数据有没有顺序问题？</p>
<p>假设要写入两条数据"add item"和"delete item"，如果写入的顺序不同，将导致完全不同的结果。如果设置W=K，对于同一个客户端，由于写入所有的机器以后才返回，可以保证顺序；而多个客户端的写操作可能被不同的节点处理，不能保证顺序性。如果设置W &lt; K，Dynamo不保证顺序性。</p>
<p>问题4：冲突解决后是否需要将结果值更新存储节点？</p>
<p>读操作解决冲突后不需要将结果值更新存储节点。产生冲突的情况一般有机器下线或者多个客户端导致的顺序问题。机器下线时retry_list中的操作将丢失，某些节点不能获取所有的更新操作。对于机器暂时性或者永久性的异常，Dynamo中内部都有同步机制进行处理，但是对于retry_list中的操作丢失或者多个客户端引发的顺序问题，Dynamo内部根本无法分辨数据是否正确。唯一的冲突解决机器在读操作，Dynamo可以设计成读操作将冲突解决结果值更新存储节点，但是这样会使读操作变得复杂和不高效。所以，比较好的做法是每个写操作都带上读操作返回的多个版本数据，写操作将冲突处理的结果更新存储节点。</p>
</div>
</div>
<img src ="http://www.blogjava.net/programmers/aggbug/304829.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-04 23:05 <a href="http://www.blogjava.net/programmers/archive/2009/12/04/304829.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>名词解释：乐观锁 vs 悲观锁，coarse-grained vs fine-grained</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304622.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 06:58:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304622.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304622.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304622.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304622.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304622.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]51_862DE74A34104AAAB90D42552297518C_9A6EA023C2984B128BC2FED75382B830">分布式系统或其它论文里面经常出现下面几个名词：<br/> 乐观锁：有时称作optimistic concurrency control, 指并发控制的时候“乐观”地认为冲突的概率很小，万一发生了冲突再重试。具体表现为事务执行过程中不锁住其它事务，等到事务提交的时候看一下是否发生了冲突，如果冲突则重试或回滚，否则提交事务。<br/> 悲观锁：并发控制的时候总是很悲观，事务执行过程中锁住其它事务，事务提交时不会有冲突。<br/> 从表面上看，悲观锁比较符合计算机基础课上灌输的思维，然而，在分布式系统环境下，异常是常有的事。假设分布式系统采用悲观锁设计，如果客户端发出事务(加锁)请求后异常退出，将导致系统被永久锁住。Web应用存储系统一般采用乐观锁设计，这和Web应用的读/写比例一般超过10相关。系统设计的时候面临这样一种CAS(Compare-And-Swap)需求：如果待操作项符合某个条件则修改。我们可以采用悲观锁锁住待操作项的所有修改，再加上锁的最大持有时间限制，但这样的API设计风险很大，乐观锁可以很好地解决该问题。<br/> <br/> coarse-grained vs fine-grained：粗粒度和细粒度。J2EE中常用来指API的粒度，比如, 我有一个远程对象, 他有很多属性和对应的getter和setter方法, 如果我们远程调用对象每个属性的getter和setter方法, 就会产生很多远程方法调用. 这就是<span class="hilite1">fine-grained</span>, 会造成性能问题。所以我们可以用一个setdata或getdata的方法把一些属性的访问封装起来, 只用一个远程方法传输一个data transfer object来对该对象进行赋值和访问, 这就是coarse-grained。Google Chubby中用来表示锁的粒度。coarse-grained指的是分布式锁的持有时间可以很长并不断延长锁的持有时间，这样的好处在于对锁服务器的压力较小，难点在于锁服务端宕机恢复需要恢复锁的状态，find-grained指的是分布式锁的持有时间一般是秒级或者毫秒级，这样的好处在于锁服务器宕机恢复不必维持原有锁的状态，但这种简单的设计方法导致服务器压力很大，不容易扩展到大集群。Google的设计一开始就把集群的线性扩展放到了一个很重要的位置，所以Google Chubby里面使用了coarse-grained的设计。客户端可以简单地在coarse-grained锁的基础上扩展出一个fine-grained的锁，具体请看Chubby论文：<a href="http://scholar.google.cn/scholar?hl=zh-CN&amp;q=The+Chubby+lock+service+for+loosely-coupled+distributed+systems&amp;btnG=%E6%90%9C%E7%B4%A2&amp;lr=&amp;as_ylo=&amp;as_vis=0" target="_blank">scholar.google.cn/scholar</a></div><img src ="http://www.blogjava.net/programmers/aggbug/304622.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 14:58 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304622.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Megastore-Bigtable上的封装</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304623.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 06:58:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304623.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304623.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304623.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304623.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304623.html</trackback:ping><description><![CDATA[<div id="Published By Juziyue-[4]51_AF86EBA627D8488FAB5B625413EF1323_45B246CBF20F4CE18B3F59FA4A41894D">Google在SIGMOD 2008上透露了Megastore部分实现细节，详情参考大牛James Hamilton的blog：<a href="http://perspectives.mvdirona.com/2008/07/10/GoogleMegastore.aspx" target="_blank">perspectives.mvdirona.com/2008/07/10/GoogleMegastore.aspx</a><br/> 大牛的文章固然不错，不过肯定不大好懂，下面我说一下我对文章的翻译+理解：<br/> 1. Google Bigtable只支持最简单的insert, update, del, ...等函数调用API，不支持SQL形式的API，这个转换工作放到了Megastore层次上来做。SQL对于异步Bigtable调用的支持需要仔细考虑。<br/> 2. 对于索引支持文章中已经说得很明显了，维护一个&lt;索引，row_key&gt;的索引表，更新时先更新数据表再更新索引表，索引项越多，更新效率越低，但是读基本不怎么影响，特别适合互联网这种读/写比例一般超过10倍的应用。<br/> 3. Megastore不提供通用的分布式事务支持，分布式事务仅仅限于同一个entity group。Bigtable支持单行的事务，而Megastore支持row key前缀相同的多行事务，如一个用户的blog, post, photo，可以将它们存在到Bigtable的一张表中，row key为user_id + blog_id + post_id + photo_id，这样同一个user的数据即为一个entity group。然而，这样就导致不能支持像百付宝、支付宝等电子商务转账事务，我暂时也还不清楚支持同一个entity group内部的事务意义有多大，即有多少web应用需要这种同一个entity group下的事务支持。<br/> 4. Megastore支持事务的方式当然还是传统的Two-phase commit协议，为了解决这个协议中协调者失效导致的问题，引入Paxos协议(Google Chubby)使协调者不再成为单点。具体做起来会非常复杂，这里提供超级大牛Jim Gray和Lamport的一篇论文供大家参考：<a href="http://scholar.google.com/scholar?q=Consensus+on+Transaction+Commit&amp;hl=en&amp;btnG=Search" target="_blank">scholar.google.com/scholar</a>&nbsp;&nbsp; 个人认为Oracle的事务内部是一个基本的Two-phase commit协议，协调者宕机时由Oracle DBA手工介入，由于其复杂性，对DBA要求很高，所以Taobao一直网罗国内顶级DBA牛人。<br/> 5. Megastore具体事务实现时会借用Bigtable 原有的机制来实现commit log, replication等功能。可能的实现为：建一张专门的Entity group root表，加载Entity group root表的Tablet Server做为协调者角色进行分布式事务控制。然而问题在于加载Entity group root表的Tablet Server是一个单点，实现多个Tablet Server服务同一个Bigtable Tablet又是一件极其困难的事情。<br/> 6. Megastore不支持复杂的Join操作，这和互联网公司应用性质相关。Join操作一般不要求强一致性，可以通过多表冗余方式实现。<br/> 7. 事务的并发控制采用最优控制策略。简单来说，就是事务过程中不要锁住其它事务操作，提交的时候看一下是否与其它事务冲突，如果有冲突则重试。Megastore实现时没有rollback，失败了都是retry，宕机了就回放操作日志。<br/> 8. Megastore/Bigtable的实现者认为让用户自己指定entity group, locality group是合理的（和数据存储位置相关)。这样的效果是同一个entity group的数据经常存放在一台机器上，分布式事务的性能损耗较小，这也就说明在分布式系统中，没有代价的scalable是不存在的，要想获得scalable和性能，就必须牺牲关系数据库的一些特性及用户的易用性。<br/> <br/> 上述均为个人的粗浅看法，如何避免协调者的单点等很多问题还没有想清楚，Bigtable和Megastore的replication策略看起来也有些冲突，想清楚后将续写！</div><img src ="http://www.blogjava.net/programmers/aggbug/304623.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 14:58 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304623.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[导入]Dynamo(二)：Dynamo的replication</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304601.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 05:43:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304601.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304601.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304601.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304601.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304601.html</trackback:ping><description><![CDATA[
		
		前文说到，Dynamo DHT能够定位数据所属的节点，为了处理节点失效的情况（DHT环中删除节点），需要对节点的数据进行replication。思路如下：假设数据存储K份，DHT定位到的数据所属节点为N，则数据存储在节点N, N+1, ..., N+K-1上。如果第i (0 &lt;= i &lt;= K-1) 台机器宕机，则往后找一台机器N+K临时替代。临时替代的机器定时ping机器N+i，等到它重启后将这些临时数据重新写入N+i。机器N+i宕机的这段时间内，所有的读写均落入到机器[N, N+i-1]和[N+i+1, N+K]中，这段时间会出现数据一致性问题，需要引入专门的冲突解决协议，在Dynamo中是通过Lamport的vector clock实现的。如果机器N+i永久失效，机器N+K需要进行同步操作。一般来说，从机器N+i宕机开始到被认定为永久失效的时间不会太长，积累的写操作也不会太多，可以采用Merkle Tree对机器的数据文件进行快速同步。<br>
为了在可用性和效率之间权衡，Dynamo的设计中允许用户指定读/写个数R和W值。R和W分别表示每个读/写操作需要操作的副本数。只要满足R+W &gt; K，就可以保证在存在不超过一台机器故障的时候，至少能够读到一份有效的数据。如果应用重视读效率，可以设置W = K, R = 1；如果应用需要在读/写之间权衡，一般可设置W = 2, R = 2，K = 3。<br>
<br>
问题1：Dynamo中如何解决网络分区问题？<br>
前面已经提到，DHT协议本身是无法处理网络分区的。在Dynamo中，引入种子节点，服务器定期向种子节点轮询整个机群的机器信息，种子节点的选择符合一定的策略使得网络分区问题出现概率降至工程可以接受的水平。<br>
<br>
问题2：如何将数据复制到多个数据中心？<br>
每份数据都被复制到N, N+1, ..., N+K-1这K台机器中，为了保证这些机器属于不同的数据中心，需要合理地设计获取数据节点号的Hash算法。当然，Dynamo通过直接手工配置每台机器的编号解决。看起来很山寨，不过很实用，呵呵。 <a href="http://hi.baidu.com/knuthocean/blog/item/f085d72a06d4ee27d52af170.html">阅读全文</a>
		
		<br/><b>类别：</b><a href="http://hi.baidu.com/knuthocean/blog/category/%C4%AC%C8%CF%B7%D6%C0%E0">默认分类</a>&nbsp;<a href="http://hi.baidu.com/knuthocean/blog/item/f085d72a06d4ee27d52af170.html#comment">查看评论</a><br>文章来源:<a href='http://hi.baidu.com/knuthocean/blog/item/f085d72a06d4ee27d52af170.html'>http://hi.baidu.com/knuthocean/blog/item/f085d72a06d4ee27d52af170.html</a><img src ="http://www.blogjava.net/programmers/aggbug/304601.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 13:43 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304601.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[导入]Dynamo(一)：一切从DHT开始</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304602.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 05:43:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304602.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304602.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304602.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304602.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304602.html</trackback:ping><description><![CDATA[
		
		DHT全称Distributed Hash Table (<a href="http://en.wikipedia.org/wiki/Distributed_hash_table" target="_blank">en.wikipedia.org/wiki/Distributed_hash_table</a>)，在P2P系统中经常用来定位数据所属机器。这就涉及到一致哈希(consistent hashing)思想，分布式系统中经常出现机器上下线，如果采用通常的Hash方法来查找数据所属机器，机器上下线将导致整个集群的数据分布被打乱。这是因为，机器上下线将导致机器序号及Hash函数的改变，一致哈希做了简单调整：每台机器存储哈希值和它最为接近的数据。在Chord系统中，顺时针到达的第一台机器即为最近的机器。<br>
外部的数据可能首先传输至集群中的任意一台机器，为了找到数据所属机器，要求每台机器维护一定的集群机器信息用于定位。最直观的想法当然是每台机器分别维护它的前一台及后一台机器的信息，机器的编号可以为机器IP的Hash值，定位机器最坏情况下复杂度为O(N)。可以采用平衡化思想来优化（如同平衡二叉树优化数组/链表），使每一台机器存储O(logN)的集群机器信息，定位机器最坏情况下复杂度为O(logN)。<br>
首先考虑每台机器维护前一台及后一台机器信息的情况，这里的问题是机器上下线导致缓存信息的不一致，我们需要设计协议使得在确定一段比较短的时间内能够纠正这种错误。对于新机器加入，首先进行一次查找操作找到该机器的下一台机器，并记录下一台机器的信息。机器内的每台机器都定时向它的后继发送心跳信息，如果后继记录的前一台机器编号在二者之间，说明有新机器加入，这时需要更新后一台机器编号为新加入编号；收到心跳信息的后继也需要检查，如果发送心跳的机器编号较为接近则更新为前一台机器。机器下线将导致机器循环链表断开，所以，每台机器都维护了R个(一般取R值为3)最近的后继信息，发现后继节点下线时将通知其它后继节点并加入新的替换节点。如果R个后继节点同时下线，需要操作人员手工介入修复循环链。<br>
Chord中的每台机器维护O(logN)的机器信息是一种空间换时间的做法，实现时需要引入额外的消息交换协议。这种做法依赖于如下前提：每台机器维护的前一台机器及后一台机器除了短时间不一致外总是正确的。<br>
<br>
问题1：机器缓存短时间不一致有什么影响？数据正确性依靠什么保证？<br>
短时间可能出现缓存的机器信息不正确的情况。比如有A, C, D, E四台机器，再加入一台机器B，机器加入的过程中，原本属于B的数据可能写入到B或者C，这都是允许的。又如删除机器C，访问机器C的节点得不到数据。数据的可用性及一致性还需要通过额外的replication及冲突处理协议解决。<br>
问题2：DHT能否处理网络分区问题？<br>
DHT不能处理网络分区问题，理论上存在整个DHT被分成多个子集的情况。我想，这时侯需要外部的机制介入，如维护一台外部机器保存所有机器列表等。 <a href="http://hi.baidu.com/knuthocean/blog/item/cca1e711221dcfcca6ef3f1d.html">阅读全文</a>
		
		<br/><b>类别：</b><a href="http://hi.baidu.com/knuthocean/blog/category/%C4%AC%C8%CF%B7%D6%C0%E0">默认分类</a>&nbsp;<a href="http://hi.baidu.com/knuthocean/blog/item/cca1e711221dcfcca6ef3f1d.html#comment">查看评论</a><br>文章来源:<a href='http://hi.baidu.com/knuthocean/blog/item/cca1e711221dcfcca6ef3f1d.html'>http://hi.baidu.com/knuthocean/blog/item/cca1e711221dcfcca6ef3f1d.html</a><img src ="http://www.blogjava.net/programmers/aggbug/304602.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 13:43 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304602.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[导入]Amazon Dynamo论文阅读笔记(序)</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304603.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 05:43:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304603.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304603.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304603.html#Feedback</comments><slash:comments>1</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304603.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304603.html</trackback:ping><description><![CDATA[
		
		Amazon Dynamo是组合使用P2P各种技术的经典论文，对单机key-value存储系统扩展成分布式系统有借鉴意义，值得仔细推敲。本人准备近期深入阅读该论文，并写下读书笔记自娱自乐。当然，如果有志同道合的同学非常欢迎交流。以下是阅读计划：<br>
1. 一切从DHT开始。Dynamo首先要解决的就是给定关键字key找出服务节点的问题。Dynamo的思想与Chord有些类似，我们可以抛开replication问题，看看Chord和Dynamo是如何通过应用DHT解决服务节点定位问题的。这里面的难点当然是节点加入和删除，尤其是多个节点并发加入/删除。建议预先阅读Chord论文：<a href="http://scholar.google.com/scholar?hl=en&amp;q=Chord%3A+A+scalable+peer-to-peer+lookup+service+for+internet+applications&amp;btnG=Search&amp;as_ylo=&amp;as_vis=0" target="_blank">scholar.google.com/scholar</a> 。<br>
2. Dynamo的replication。理解了DHT，我们需要结合replication理解服务节点定位及错误处理等问题。<br>
3. Dynamo错误处理。这里包括两种类型的错误，一种是暂时性的，如由于程序bug core dump后重启，另外一种是永久性的，这里用到了Merkle Tree同步技术。<br>
4. Dynamo读/写流程设计及冲突解决。这里主要涉及到一致性模型。Dynamo允许根据应用配置R和W值来权衡效率及Availability，并使用了Lamport的Vector Clock来解决冲突。<br>
5. Dynamo优化。主要是Load rebalance的优化。<br>
6. Dynamo实现。如果让我们自己来实现Dynamo，我们应该如何划分模块以及实现过程中有哪些关键问题？<br>
后续将按照计划对每个问题做阅读笔记 :) <a href="http://hi.baidu.com/knuthocean/blog/item/8838ad34f9ae1dbdd0a2d3d7.html">阅读全文</a>
		
		<br/><b>类别：</b><a href="http://hi.baidu.com/knuthocean/blog/category/%C4%AC%C8%CF%B7%D6%C0%E0">默认分类</a>&nbsp;<a href="http://hi.baidu.com/knuthocean/blog/item/8838ad34f9ae1dbdd0a2d3d7.html#comment">查看评论</a><br>文章来源:<a href='http://hi.baidu.com/knuthocean/blog/item/8838ad34f9ae1dbdd0a2d3d7.html'>http://hi.baidu.com/knuthocean/blog/item/8838ad34f9ae1dbdd0a2d3d7.html</a><img src ="http://www.blogjava.net/programmers/aggbug/304603.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 13:43 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304603.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[导入]推荐两本分布式系统书籍</title><link>http://www.blogjava.net/programmers/archive/2009/12/03/304604.html</link><dc:creator>Programmers</dc:creator><author>Programmers</author><pubDate>Thu, 03 Dec 2009 05:43:00 GMT</pubDate><guid>http://www.blogjava.net/programmers/archive/2009/12/03/304604.html</guid><wfw:comment>http://www.blogjava.net/programmers/comments/304604.html</wfw:comment><comments>http://www.blogjava.net/programmers/archive/2009/12/03/304604.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.blogjava.net/programmers/comments/commentRss/304604.html</wfw:commentRss><trackback:ping>http://www.blogjava.net/programmers/services/trackbacks/304604.html</trackback:ping><description><![CDATA[
		
		推荐两本分布式系统方面书籍：<br>
1. &lt;&lt;Distributed Systems - Principles and Paradigms&gt;&gt; Andrew S. Tanenbaum <a href="http://www.china-pub.com/40777&amp;ref=ps" target="_blank">www.china-pub.com/40777&amp;ref=ps</a> Tanenbaum出品，必属精品。本书条理清晰，涉及到分布式系统的方方面面，通俗易懂并附录了分布式系统各个经典问题的论文阅读资料，是分布式系统入门的不二选择。感觉和以前看过的&lt;&lt;Introduction to Algorithm&gt;&gt;一样，读起来让人心旷神怡，建议通读。<br>
2. &lt;&lt;Introduction to Distributed Algorithms&gt;&gt; Gerard Tel <a href="http://www.china-pub.com/13102&amp;ref=ps" target="_blank">www.china-pub.com/13102&amp;ref=ps</a> 我们老大推荐的书籍。虽然从名字看是入门型书籍，不过内容一点都不好懂，适合有一定基础的同学。另外，千万要注意，一定要买英文原版。 <a href="http://hi.baidu.com/knuthocean/blog/item/8838ad34fbfb1fbdd1a2d364.html">阅读全文</a>
		
		<br/><b>类别：</b><a href="http://hi.baidu.com/knuthocean/blog/category/%C4%AC%C8%CF%B7%D6%C0%E0">默认分类</a>&nbsp;<a href="http://hi.baidu.com/knuthocean/blog/item/8838ad34fbfb1fbdd1a2d364.html#comment">查看评论</a><br>文章来源:<a href='http://hi.baidu.com/knuthocean/blog/item/8838ad34fbfb1fbdd1a2d364.html'>http://hi.baidu.com/knuthocean/blog/item/8838ad34fbfb1fbdd1a2d364.html</a><img src ="http://www.blogjava.net/programmers/aggbug/304604.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.blogjava.net/programmers/" target="_blank">Programmers</a> 2009-12-03 13:43 <a href="http://www.blogjava.net/programmers/archive/2009/12/03/304604.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss>