paulwong

#

Oracle Coherence 概述

  Coherence是什么

  Coherence是Oracle为了建立一种高可靠和高扩展集群计算的一个关键部件,集群指的是多于一个应用服务器参与到运算里。Coherence的主要用途是共享一个应用的对象(主要是java对象,比如Web应用的一个会话java对象)和数据(比如数据库数据,通过OR-MAPPING后成为Java对象)。

  简单来说,就是当一个应用把它的对象或数据托管给Coherence管理的时候,该对象或数据就能够在整个集群环境(多个应用服务器节点)共享,应用程序可以非常简单地调用get方法取得该对象,并且由于Coherence本身的冗余机制使得任何一个应用服务器节点的失败都不会影响到该对象的丢失。其实如果不使用coherence,对于一个会话在多个应用服务器节点的共享一般是通过应用服务器本身的集群技术,而Coherence的创造者则认为基于某种应用服务器技术的集群技术来共享会话变量的技术并不完整,而专门开发出Coherence这个产品(原来称为tangosol)并且最后被Oracle收购,这个产品既有原来各种应用服务器集群所具有的各种技术特点,而且又增加了原来各种应用服务器集群技术所没有的各种特性。

  要学习这个产品,需要记住并注意的一点是:Coherence所有的设计都是基于多个(可以是非常多)的JVM,很多Coherence的测试都是使用几十甚至上百个节点来进行的。

  Coherence的一些技术特点

  Coherence产品首先是被设计用于高扩展性:

  所谓高扩展性就是当一个应用服务器能够处理2000笔交易,则10个应用服务器应该能够处理20000笔交易。

  一般而言,整个应用架构的扩展性由架构里的最不能扩展的部位(称之为瓶颈)决定,这个瓶颈一般而言都是数据源的处理,Coherence针对这种理解提供了应用层的数据共享缓冲,任何一个时候如果应用能够从这个数据缓冲里满足要求,则不会将请求发给数据源,从而极大地增强一般的瓶颈(数据)的扩展性。

  为了加强数据的写处理性能,Coherence还设计了延迟写的功能,就是应用的写会先缓存在Coherence的缓冲区,然后延迟写到数据库里,为了减轻数据源的写压力,Coherence只把最近的更改写到数据源,比如一条数据被更改了多遍,则只有最后的更改会被提交到数据源。而且,如果可能,多个SQL语句会被变成一个SQL语句批,一次提交给数据源,这样又极大地降低了对数据源的压力。

  熟悉于数据库应用程序,参加过性能测试的有经验的朋友应该知道这非常多的场合,上述Coherence的特点刚好是对应了非常多的经常遇到的应用出现问题的场景。

  即Coherence被放在应用服务器和数据库服务器之间,从而解决通常应用架构里的瓶颈(数据瓶颈)来提高整个应用架构的可扩展性。

  Coherence的第二个非常重要的特地是支持数据的分区处理,就是如果有N个处理节点,则每个节点只管理1/N的数据,当一个节点失效时,该节点的数据会在剩下的节点均分,每个节点将管理1/(N-1)的数据。同样的,当一个节点增加进来时,则每一个节点都会分配一部分数据给新的节点,则最终每个节点只管理1/(N+1)的数据。大家知道,一般应用服务器的集群都有只能缓冲共享2G java对象的缺点,而Coherence这种设计让Coherence能够处理非常多的数据,只需要通过增加节点的数量,就可以处理更多的数据。

  如果安装了Coherence,则应用服务器不需要配置专有的服务器集群技术,因为Coherence*web模块提供了可用于处理http会话信息在Coherence集群内共享的功能,当一个节点需要读取HTTP会话信息而发现自己没有该会话信息的时候,它会把请求同时发给所有的节点(multicast),而当一个节点需要写HTTP会话信息的同时,它也会把写请求发给所有的节点,所以2个节点的处理和100个节点的处理都是一样的。

  1. Caching:正如Coherence的别名是Data Grid,Coherence在这种场景主要是被用于缓存数据源的数据,当应用需要数据时,直接从Coherence里面取得而不是从后台数据源取得。比如用于缓存用户的个人设置信息。这种使用方式可以极大降低对后台数据源的压力,并且甚至当后台数据源不可用的时候也不影响系统的可用性。

  2. Analytics:用于查询,从简单查询到复杂查询,比如用于查询金融交易系统的投资者持仓信息(非常密集的查询)。这种使用方式还可以使用多个节点的并发查询。

  3. Transactions:在Coherence直接处理交易,可以在Coherence直接提交交易,从而得到极快的响应速度和高可扩展性。

  4. Events:Coherence里可以使用事件驱动的架构,能够对事件做出实时的处理。比如在线游戏使用EDA架构处理“武器”,“装备”的买卖交易。

posted @ 2012-01-28 00:01 paulwong 阅读(388) | 评论 (0)编辑 收藏

让Apache Shiro保护你的应用

     摘要: 什么是Apache Shiro?Apache Shiro(发音为“shee-roh”,日语“堡垒(Castle)”的意思)是一个强大易用的Java安全框架,提供了认证、授权、加密和会话管理功能,可为任何应用提供安全保障 - 从命令行应用、移动应用到大型网络及企业应用。 Shiro为解决下列问题(我喜欢称它们为应用安全的四要素)提供了保护应用的API:...  阅读全文

posted @ 2012-01-27 20:18 paulwong 阅读(867) | 评论 (1)编辑 收藏

优化程序之前,可用Jamon来监测你的Spring应用

/**
*作者:张荣华(ahuaxuan)
*2007-8-15
*转载请注明出处及作者
*/

前两天在看Spring内置的拦截器的时候,发现了一个之前没有注意的类:org.springframework.aop.interceptor.JamonPerformanceMonitorInterceptor,好奇心促使我上网查了一下这个jamon。大概看了一下之后发现这个玩意还真挺好用的而且挺重要的,而且现在国内对它的介绍也很少,所以写了一篇文章和大家分享。

一,Jamon简介:
Jamon的全名是:Java Application Monitor。它是一个小巧的,免费的,高性能的,线程安全的性能监测工具。它可以用来测定系统的性能瓶颈,也可以用来监视用户和应用程序之间的交互情况。 Jamon主要是用来检测jee的应用程序。它最新的版本是2.1,可以用在1.4以上的jdk上。

二,将jamon导入到你的应用程序中去
首先下载jamon的开发包,见我的附件,同时你也可以去Sourceforge上自己下载。Sourceforge的下载地址为http://jamonapi.sourceforge.net。解压之后可以得到一个jar包和一个war包。jar包是自己会用到的,而war包是一个例子(不要小看这个例子,待会也要把它导入到项目中)。把war包之间丢到服务器上,访问:localhost:8080/jamon就可以看到这个例子了,这个例子是一个简单的性能监控系统。

接着把例子中的所有的包都导入到项目中,并把war包中的jsp和images还有css都考到项目中,比如新建一个目录叫monitor(它和WEB-INF是同级目录)。

三,正确配置自己的应用
我们在性能监测的时候最监测的就是页面的访问率和类中方法的访问率。所以在这一部分主要讲解一下如何监测自己的页面和类中方法的访问。

1, 检测自己的页面访问率
首先我们需要在web.xml中添加一个filter,这个filter就是用来判断哪些页面需要被监视的,如下所示:
<filter>
        
<filter-name>JAMonFilter</filter-name>
        
<filter-class>com.easywebwork.filter.EasyPageMonFilter</filter-class>
    
</filter>
    
<filter-mapping>
        
<filter-name>JAMonFilter</filter-name>
        
<url-pattern>/*</url-pattern>
    
</filter-mapping>

接下来我们看看这个filter的写法:

/**
*
@author 张荣华(ahuaxuan)
*
*
@since 2007-8-13
*/

public class PageMonFilter extends JAMonFilter{

private static final long serialVersionUID = 5746197114960908454L;

public void doFilter(ServletRequest request, ServletResponse response, FilterChain filterChain) throws IOException, ServletException {
Monitor allPages
= MonitorFactory.start(new MonKeyImp("org.easywebwork.allPages",getURI(request),"ms."));
//这里就是我们要监视的所有的页面的配置
Monitor monitor = MonitorFactory.start(getURI(request));
//这里就是我们要监视的某个页面的配置
try {
filterChain.doFilter(request, response);
}
finally {
monitor.stop();
allPages.stop();
}

}


protected String getURI(ServletRequest request) {
if (request instanceof HttpServletRequest) {
return ((HttpServletRequest) request).getRequestURI();
}
else {
return "Not an HttpServletRequest";
}

}


private FilterConfig filterConfig = null;

}
}

这个类看上去很简单,其实也挺简单的,就是得到uri,然后把它注册到MonitorFactory类中。这样只要我们去访问刚才创建的monitor目录下的jsp就可以看到性能监测页面了。

2, 接下来我们看看在使用spring的情况下如何监测一个bean的方法调用。
Spring也提供了对Jamon的支持(spring支持的东西还真多啊),也就是文章开头提出的那个拦截器,为了给我们的bean加上拦截器,我们在spring的applicationcontext配置文件中加入如下语句:

<bean class="org.springframework.aop.framework.autoproxy.BeanNameAutoProxyCreator">
<property name="beanNames">
<list>
<value>userService</value>
</list>
</property>
<property name="interceptorNames">
<list>
<value>jamonInterceptor</value>
</list>
</property>
</bean>

<bean id="jamonInterceptor" class="org.springframework.aop.interceptor.JamonPerformanceMonitorInterceptor">
</bean>

上面这个是典型的spring的aop的配置,如果对spring的aop配置不了解的可以去看一下spring中文文档,当然如果不想了解的话即使直接把这段配置拷到自己的项目中也是可以直接使用的。

还有一个步骤就是在你的log4j.properties中加入这句代码:

log4j.logger.org.springframework.aop.interceptor.JamonPerformanceMonitorInterceptor = TRACE


如果没有这一行,那么这个拦截器是不会把方法调用的信息向MonitorFactory注册的。

只需要这些步骤,userservice中的方法在调用的时候就可以被拦截,然后将其注册到MonitorFactory中去了。

所有的配置完成之后我们来看一下效果吧:
http://www.iteye.com/topics/download/b2bac96e-6c18-4340-b7e0-f84c7bb6adca从这个图上我们可以看到,所有页面被访问的次数,UserService中的getAllUsers被调用的次数,最右边的是访问时间。这只是整个图的一部分,当然这个页面中也包括每一个页面被访问的次数和第一次访问的时间等等。下载附件运行,就可以看到所有的页面了。

三,总结
根据以上的步骤,我们就可以监测我们的程序了,应用程序中哪些页面被访问的多,哪些页面被访问的少,哪些方法被访问的多,哪些方法被访问的少,以及访问高峰期集中在什么时间等等,有了这些参数,我们更可以有针对性的对应用程序进行优化了,比如说某个页面访问比较频繁,我就可以用ehcache或oscache给这个页面做一个缓存。如果某个方法的访问比较频繁那就看看这个方法能否进一步优化,是需要异步,还是需要缓存,还是需要其他等等,总之有了jamon可以给我们带来更多的便捷,既可以让我们知道我们的客户的行为,也可以让我们知道我们开发的程序的“能力”。

其实本文提供的只是对页面和方法调用的监控,但是jamon可以提供更多功能,比如说sql语句的监控等等,这就需要我们共同去发掘了。

附件中包括了一个easywebwork的例子,我把jamon导入到这个例子工程中去,大家可以直接下载运行观看效果。Easywebwork是一个旨在减少webwork2.2.x系列的xml配置文件的项目。

  • JamonSample.rar (3.7 MB)
  • 描述: 由于上传文件大小有限制,所以需要同学们自己添加一下jar包: spring,common-logging,log4j,common-collections activation, common-lang

     

  • lib.rar (3.3 MB)
  • 描述: 第二组包包括 spring,common-logging,log4j,common-collections activation, common-lang

     

  • posted @ 2012-01-25 16:32 paulwong 阅读(726) | 评论 (0)编辑 收藏

    memcache-client-forjava

    http://code.google.com/p/memcache-client-forjava/
    http://marc.iteye.com/blog/28700
    http://www.jayxu.com/2010/06/09/2342/
    http://www.iteye.com/topic/128458
    http://code.google.com/p/xmemcached/wiki/User_Guide_zh

    posted @ 2012-01-24 20:34 paulwong 阅读(387) | 评论 (0)编辑 收藏

    EhCache 缓存系统简介

         摘要: EhCache 是一个纯Java的进程内缓存框架,具有快速、精干等特点,是Hibernate中默认的CacheProvider。 下图是 EhCache 在应用程序中的位置: EhCache 的主要特性有: 1. 快速.2. 简单.3. 多种缓存策略4. 缓存数据有两级:内存和磁盘,因此无需担心容量问题5. 缓存数据会在虚拟机重启的过程中写入磁盘6. 可以通过RMI、可插入API...  阅读全文

    posted @ 2012-01-24 20:32 paulwong 阅读(1427) | 评论 (0)编辑 收藏

    ehcache configuration (cluster env)

     <ehcache>

        
    <!-- Sets the path to the directory where cache .data files are created.

             If the path is a Java System Property it is replaced by
             its value in the running VM.

             The following properties are translated:
             user.home - User's home directory
             user.dir - User's current working directory
             java.io.tmpdir - Default temp file path 
    -->
        
    <diskStore path="java.io.tmpdir/service"/>

        
    <cacheManagerPeerProviderFactory
            
    class="net.sf.ehcache.distribution.RMICacheManagerPeerProviderFactory"
            properties
    ="peerDiscovery=automatic, multicastGroupAddress=230.0.0.3,
            multicastGroupPort=4446, timeToLive=0"
    />
       
        
    <cacheManagerPeerListenerFactory
            
    class="net.sf.ehcache.distribution.RMICacheManagerPeerListenerFactory"
            properties
    ="hostName=, port=40003,
            socketTimeoutMillis=12000"
    />
                       
        
    <!--Default Cache configuration. These will applied to caches programmatically created through
            the CacheManager.

            The following attributes are required:

            maxInMemory
              - Sets the maximum number of objects that will be created in memory

            eternal
              - Sets whether elements are eternal. If eternal,  timeouts are ignored and the element is never expired.
            
              overflowToDisk
              - Sets whether elements can overflow to disk when the in-memory cache has reached the maxInMemory limit.

            The following attributes are optional:
            timeToIdleSeconds              - Sets the time to idle for an element before it expires.
                                             i.e. The maximum amount of time between accesses before an element expires
                                             Is only used if the element is not eternal.
                                             Optional attribute. A value of 0 means that an Element can idle for infinity.
                                             The default value is 0.
            timeToLiveSeconds              - Sets the time to live for an element before it expires.
                                             i.e. The maximum time between creation time and when an element expires.
                                             Is only used if the element is not eternal.
                                             Optional attribute. A value of 0 means that and Element can live for infinity.
                                             The default value is 0.
            diskPersistent                 - Whether the disk store persists between restarts of the Virtual Machine.
                                             The default value is false.
            diskExpiryThreadIntervalSeconds- The number of seconds between runs of the disk expiry thread. The default value
                                             is 120 seconds.
            
    -->
       
        
    <defaultCache
            
    maxElementsInMemory="1000000000"
            eternal
    ="true"
            overflowToDisk
    ="false"
            diskPersistent
    ="false"
            memoryStoreEvictionPolicy
    ="LRU">
            
    <cacheEventListenerFactory
                
    class="net.sf.ehcache.distribution.RMICacheReplicatorFactory"
                properties
    ="replicateAsynchronously=true, replicatePuts=true replicateUpdates=true replicateUpdatesViaCopy=true replicateRemovals=true asynchronousReplicationIntervalMillis=1000"/>
        
    </defaultCache>
       
        
    <cache name="com.ubs.swidGLK.METHOD_CACHE"
            maxElementsInMemory
    ="10000"
            eternal
    ="true"
            overflowToDisk
    ="false"
            diskPersistent
    ="false"
            memoryStoreEvictionPolicy
    ="LRU">
            
    <cacheEventListenerFactory
                
    class="net.sf.ehcache.distribution.RMICacheReplicatorFactory"/>
        
    </cache>
    </ehcache>

    http://www.oschina.net/question/12_3984

    posted @ 2012-01-23 23:22 paulwong 阅读(331) | 评论 (0)编辑 收藏

    由12306.cn谈谈网站性能技术

    12306.cn网站挂了,被全国人民骂了。我这两天也在思考这个事,我想以这个事来粗略地和大家讨论一下网站性能的问题。因为仓促,而且完全基于 本人有限的经验和了解,所以,如果有什么问题还请大家一起讨论和指正。(这又是一篇长文,只讨论性能问题,不讨论那些UI,用户体验,或是是否把支付和购 票下单环节分开的功能性的东西)

    业务

    任何技术都离不开业务需求,所以,要说明性能问题,首先还是想先说说业务问题。
    • 其一有人可能把这个东西和QQ或是网游相比。但我觉得这两者是不一样的,网游和QQ在线或是登录时访问的更多的是用户自己的数据,而订票系统访问的是中心的票量数据,这是不一样的。不要觉得网游或是QQ能行你就以为这是一样的。网游和QQ 的后端负载相对于电子商务的系统还是简单。
    • 其二有人说春节期间订火车的这个事好像网站的秒杀活动。的确很相似, 但 是如果你的思考不在表面的话,你会发现这也有些不一样。火车票这个事,还有很多查询操作,查时间,查座位,查铺位,一个车次不 行,又查另一个车次,其伴随着大量的查询操作,下单的时候需要对数据库操作。而秒杀,直接杀就好了。另外,关于秒杀,完全可以做成只接受前N个用户的请求 (完全不操作后端的任何数据, 仅仅只是对用户的下单操作log),这种业务,只要把各个服务器的时间精确同步了就可以了,无需在当时操作任何数据库。可以订单数够后,停止秒杀,然后批 量写数据库。火车票这个岂止是秒杀那么简单。能不能买到票得当时告诉用户啊。
    • 其三有人拿这个系统和奥运会的票务系统比较。我觉得还是不一样。虽然奥运会的票务系统当年也一上线就废了。但是奥运会用的是抽奖的方式,也就是说不存在先来先得的抢的方式,而且,是事后抽奖,事前只需要收信息,事前不需要保证数据一致性,没有锁,很容易水平扩展。
    • 其四订票系统应该和电子商务的订单系统很相似,都是需要对库存进 行:1)占住库存,2)支付(可选),3)扣除库存的操作。这个是需要有一致性的检查的,也就是在并发时需要对数据加锁的。B2C的电商基本上都会把这个 事干成异步的,也就是说,你下的订单并不是马上处理的,而是延时处理的,只有成功处理了,系统才会给你一封确认邮件说是订单成功。我相信有很多朋友都收到 认单不成功的邮件。这就是说,数据一致性在并发下是一个瓶颈
    • 其五铁路的票务业务很变态,其采用的是突然放票,而有的票又远远不够 大家分,所以,大家才会有抢票这种有中国特色的业务的做法。于是当票放出来的时候,就会有几百万人甚至上千万人杀上去,查询,下单。几十分钟内,一个网站 能接受几千万的访问量,这个是很恐怖的事情。据说12306的高峰访问是10亿PV,集中在早8点到10点,每秒PV在高峰时上千万。
    多说几句:
    • 库存是B2C的恶梦,库存管理相当的复杂。不信,你可以问问所有传统和电务零售业的企业,看看他们管理库存是多么难的一件事。不然,就不会有那么多人在问凡客的库存问题了。(你还可以看看《乔布斯传》,你就知道为什么Tim会接任Apple的CEO了,因为他搞定了苹果的库存问题)
    • 对于一个网站来说,浏览网页的高负载很容易搞定,查询的负载有一定的难度去处理,不过还是可以通过缓存查询结果来搞定,最难的就是下单的负载。因为要访问库存啊,对于下单,基本上是用异步来搞定的。去年双11节,淘宝的每小时的订单数大约在60万左右,京东一天也才能支持40万(居然比12306还差),亚马逊5年前一小时可支持70万订单量。可见,下订单的操作并没有我们相像的那么性能高。
    • 淘宝要比B2C的网站要简单得多,因为没有仓库,所以,不存在像B2C这样有N个仓库对同一商品库存更新和 查 询的操作。下单的时候,B2C的 网站要去找一个仓库,又要离用户近,又要有库存,这需要很多计算。试想,你在北京买了一本书,北京的仓库没货了,就要从周边的仓库调,那就要去看看沈阳或 是西安的仓库有没有货,如果没有,又得看看江苏的仓库,等等。淘宝的就没有那么多事了,每个商户有自己的库存,库存分到商户头上了,反而有利于性能。
    • 数据一致性才是真正的性能瓶颈。有 人说nginx可以搞定每秒10万的静态请求,我不怀疑。但这只是静态请求,理论值,只要带宽、I/O够强,服务器计算能力够,并支持的并发连接数顶得住 10万TCP链接的建立 的话,那没有问题。但在数据一致性面前,这10万就完完全全成了一个可望不可及的理论值了。
    我说那么多,我只是想从业务上告诉大家,我们需要从业务上真正了解春运铁路订票这样业务的变态之处。

    前端性能优化技术

    要解决性能的问题,有很多种常用的方法,我在下面列举一下,我相信12306这个网站使用下面的这些技术会让其性能有质的飞跃。
    一、前端负载均衡
    通过DNS的负载均衡器(一般在路由器上根据路由的负载重定向)可以把用户的访问均匀地分散在多个Web服务器上。这样可以减少Web服务器的请求 负载。因为http的请求都是短作业,所以,可以通过很简单的负载均衡器来完成这一功能。最好是有CDN网络让用户连接与其最近的服务器(CDN通常伴随 着分布式存储)。(关于负载均衡更为详细的说明见“后端的负载均衡”)
    二、减少前端链接数
    我看了一下12306.cn,打开主页需要建60多个HTTP连接,车票预订页面则有70多个HTTP请求,现在的浏览器都是并发请求的。所以,只 要有100万个用户,就会有6000万个链接,太多了。一个登录查询页面就好了。把js打成一个文件,把css也打成一个文件,把图标也打成一个文件,用 css分块展示。把链接数减到最低。
    三、减少网页大小增加带宽
    这个世界不是哪个公司都敢做图片服务的,因为图片太耗带宽了。现在宽带时代很难有人能体会到当拨号时代做个图页都不敢用图片的情形(现在在手机端浏 览也是这个情形)。我查看了一下12306首页的需要下载的总文件大小大约在900KB左右,如果你访问过了,浏览器会帮你缓存很多,只需下载10K左右 的文件。但是我们可以想像一个极端一点的案例,1百万用户同时访问,且都是第一次访问,每人下载量需要1M,如果需要在120秒内返回,那么就需要,1M * 1M /120 * 8 = 66Gbps的带宽。很惊人吧。所以,我估计在当天,12306的阻塞基本上应该是网络带宽,所以,你可能看到的是没有响应。后面随着浏览器的缓存帮助 12306减少很多带宽占用,于是负载一下就到了后端,后端的数据处理瓶颈一下就出来。于是你会看到很多http 500之类的错误。这说明服务器垮了。
    四、前端页面静态化
    静态化一些不觉变的页面和数据,并gzip一下。还有一个并态的方法是把这些静态页面放在/dev/shm下,这个目录就是内存,直接从内存中把文件读出来返回,这样可以减少昂贵的磁盘I/O。
    五、优化查询
    很多人查询都是在查一样的,完全可以用反向代理合并这些并发的相同的查询。这样的技术主要用查询结果缓存来实现,第一次查询走数据库获得数据,并把 数据放到缓存,后面的查询统统直接访问高速缓存。为每个查询做Hash,使用NoSQL的技术可以完成这个优化。(这个技术也可以用做静态页面) 对于火车票量的查询,个人觉得不要显示数字,就显示一个“有”或“无”就好了,这样可以大大简化系统复杂度,并提升性能。
    六、缓存的问题
    缓存可以用来缓存动态页面,也可以用来缓存查询的数据。缓存通常有那么几个问题: 1)缓存的更新。也叫缓存和数据库的同步。有这么几种方法,一是缓存time out,让缓存失效,重查,二是,由后端通知更新,一量后端发生变化,通知前端更新。前者实现起来比较简单,但实时性不高,后者实现起来比较复杂 ,但实时性高。 2)缓存的换页。内存可能不够,所以,需要把一些不活跃的数据换出内存,这个和操作系统的内存换页和交换内存很相似。FIFO、LRU、LFU都是比较经典的换页算法。相关内容参看Wikipeida的缓存算法。 3)缓存的重建和持久化。缓存在内存,系统总要维护,所以,缓存就会丢失,如果缓存没了,就需要重建,如果数据量很大,缓存重建的过程会很慢,这会影响生产环境,所以,缓存的持久化也是需要考虑的。 诸多强大的NoSQL都很好支持了上述三大缓存的问题。

    后端性能优化技术

    前面讨论了前端性能的优化技术,于是前端可能就不是瓶颈问题了。那么性能问题就会到后端数据上来了。下面说几个后端常见的性能优化技术。
    一、数据冗余
    关于数据冗余,也就是说,把我们的数据库的数据冗余处理,也就是减少表连接这样的开销比较大的操作,但这样会牺牲数据的一致性。风险比较大。很多人 把NoSQL用做数据,快是快了,因为数据冗余了,但这对数据一致性有大的风险。这需要根据不同的业务进行分析和处理。(注意:用关系型数据库很容易移植 到NoSQL上,但是反过来从NoSQL到关系型就难了)
    二、数据镜像
    几乎所有主流的数据库都支持镜像,也就是replication。数据库的镜像带来的好处就是可以做负载均衡。把一台数据库的负载均分到多台上,同时又保证了数据一致性(Oracle的SCN)。最重要的是,这样还可以有高可用性,一台废了,还有另一台在服务。 数据镜像的数据一致性可能是个问题,所以我们要吧在单条数据上进行数据分区,也就是说,把一个畅销商品的库存均分到不同的服务器上,如,一个畅销商品有1万的库存,我们可以设置10台服务器,每台服务器上有100个库存,这就好像B2C的仓库一样。
    三、数据分区
    数据镜像不能解决的一个问题就是数据表里的记录太多,导致数据库操作太慢。所以,把数据分区。数据分区有很多种做法,一般来说有下面这几种:

    1)把数据把某种逻辑来分类。比如火车票的订票系统可以按各铁路局来分,可按各种车型分,可以按始发站分,可以按目的地分……,反正就是把一张表拆成多张有一样的字段但是不同种类的表,这样,这些表就可以存在不同的机器上以达到分担负载的目的。

    2)把数据按字段分,也就是坚着分表。比如把一些不经常改的数据放在一个表里,经常改的数据放在另一个表里。把一张表变成1对1的关系,这样,你可 以减少表的字段个数,同样可以提升一定的性能。另外,字段多会造成一条记录的存储会被放到不同的页表里,这对于读写性能都有问题。

    3)平均分表。因为第一种方法是并不一定平均分均,可能某个种类的数据还是很多。所以,也有采用平均分配的方式,通过主键ID的范围来分表。

    4)同一数据分区。这个在上面数据镜像提过。也就是把同一商品的库存值分到不同的服务器上,比如有10000个库存,可以分到10台服务器上,一台上有1000个库存。然后负载均衡。 这三种分区都有好有坏。最常用的还是第一种。数据一量分区,你就需要有一个或是多个调度来让你的前端程序知道去哪里找数据。把火车票的数据分区,并放在各个省市,会对12306这个系统有非常有意义的质的性能的提高
    四、后端系统负载均衡
    前面说了数据分区,数据分区可以在一定程度上减轻负载,但是无法减轻热销商品的负载,对于火车票来说,可以认为是大城市的某些主干线上的车票。这就 需要使用数据镜像来减轻负载。使用数据镜像,你必然要使用负载均衡,在后端,我们可能很难使用像路由器上的负载均衡器,因为那是均衡流量的,因为流量并不 代表服务器的繁忙程序。因此,我们需要一个任务分配系统,其还能监控各个服务器的负载情况。 任务分配服务器有一些难点:
    • 负载情况比较复杂。什么叫忙?是CPU高?还是磁盘I/O高?还是内存使用高?还是并发高?你可能需要全部都要考虑。这些信息要发送给那个任务分配器上,由任务分配器挑选一台负载最轻的服务器来处理。
    • 任务分配服务器上需要对任务队列,不能丢任务啊,所以还需要持久化。并且可以以批量的方式把任务分配给计算服务器。
    • 任务分配服务器死了怎么办?这里需要一些如Live-Standby或是failover等高可用性的技术。我们还需要注意那些持久化了的任务的队列如果转移到别的服务器上的问题。
    我看到有很多系统都用静态的方式来分配,有的用hash,有的就简单地轮流分析。这些都不够好,一个是不能完美地负载均衡,另一个静态的方法的致命缺陷是,如果有一台计算服务器死机了,或是我们需要加入新的服务器,对于我们的分配器来说,都需要知道。 还有一种方法是使用抢占式的方式进行负载均衡,由下游的计算服务器去任务服务器上拿任务。让这些计算服务器自己决定自己是否要任务。这样的好处是可 以简化系统的复杂度,而且还可以任意实时地减少或增加计算服务器。但是唯一不好的就是,如果有一些任务只能在某种服务器上处理,这可能会引入一些复杂度。 不过总体来说,这种方法可能是比较好的负载均衡。
    五、异步、 throttle 和 批量处理
    异步、throttle(节流阀) 和批量处理都需要对并发请求数做队列处理的。
    • 异步在业务上一般来说就是收集请求,然后延时处理。在技术上就是可以把各个处理程序做成并行的,也就可以水平扩展了。但是异步的技术问题大概有 这 些,a)被调用方的结果返回,会涉及进程线程间通信的问题。b)如果程序需要回滚,回滚会有点复杂。c)异步通常都会伴随多线程多进程,并发的控制也相对 麻烦一些。d)很多异步系统都用消息机制,消息的丢失和乱序也会是比较复杂的问题。
    • throttle 技术其实并不提升性能,这个技术主要是防止系统被超过自己不能处理的流量给搞垮了,这其实是个保护机制。使用throttle技术一般来说是对于一些自己无法控制的系统,比如,和你网站对接的银行系统。
    • 批量处理的技术,是把一堆基本相同的请求批量处理。比如,大家同时购买同一个商品,没有必要你买一个我就写一次数据库,完全可以收集到一定数量 的 请求,一次操作。这个技术可以用作很多方面。比如节省网络带宽,我们都知道网络上的MTU(最大传输单元),以态网是1500字节,光纤可以达到4000 多个字节,如果你的一个网络包没有放满这个MTU,那就是在浪费网络带宽,因为网卡的驱动程序只有一块一块地读效率才会高。因此,网络发包时,我们需要收 集到足够多的信息后再做网络I/O,这也是一种批量处理的方式。批量处理的敌人是流量低,所以,批量处理的系统一般都会设置上两个阀值,一个是作业量,另 一个是timeout,只要有一个条件满足,就会开始提交处理。
    所以,只要是异步,一般都会有throttle机制,一般都会有队列来排队,有队列,就会有持久化,而系统一般都会使用批量的方式来处理云风同学设计的“排队系统” 就是这个技术。这和电子商务的订单系统很相似,就是说,我的系统收到了你的购票下单请求,但是我还没有真正处理,我的系统会跟据我自己的处理能力来throttle住这些大量的请求,并一点一点地处理。一旦处理完成,我就可以发邮件或短信告诉用户你来可以真正购票了。

    在这里,我想通过业务和用户需求方面讨论一下云风同学的这个排队系统,因为其从技术上看似解决了这个问题,但是从业务和用户需求上来说可能还是有一些值得我们去深入思考的地方:

    1)队列的DoS攻击。首先,我们思考一下,这个队 是个单纯地排队的吗?这样做还不够好,因为这样我们不能杜绝黄牛,而且单纯的ticket_id很容易发生DoS攻击,比如,我发起N个 ticket_id,进入购票流程后,我不买,我就耗你半个小时,很容易我就可以让想买票的人几天都买不到票。有人说,用户应该要用身份证来排队, 这样在购买里就必需要用这个身份证来买,但这也还不能杜绝黄牛排队或是号贩子。因为他们可以注册N个帐号来排队,但就是不买。黄牛这些人这个时候只需要干 一个事,把网站搞得正常不能访问,让用户只能通过他们来买。

    2)对列的一致性?对这个队列的操作是不是需要锁?只要有锁,性能一定上不去。试想,100万个人同时要求你来分配位置号,这个队列将会成为性能瓶颈。你一定没有数据库实现得性能好,所以,可能比现在还差

    3)队列的等待时间。购票时间半小时够不够?多不 多?要是那时用户正好不能上网呢?如果时间短了,用户也会抱怨,如果时间长了,后面在排队的那些人也会抱怨。这个方法可能在实际操作上会有很多问题。另 外,半个小时太长了,这完全不现实,我们用15分钟来举例:有1千万用户,每一个时刻只能放进去1万个,这1万个用户需要15分钟完成所有操作,那么,这 1千万用户全部处理完,需要1000*15m = 250小时,10天半,火车早开了。(我并乱说,根据铁道部专家的说明:这几天,平均一天下单100万,所以,处理1000万的用户需要十天。这个计算可能有点简单了,我只是想说,在这样低负载的系统下用排队可能都不能解决问题

    4)队列的分分式。这个排队系统只有一个队列好吗? 还不足够好。因为,如果你放进去的可以购票的人如果在买同一个车次的同样的类型的票(比如某动车卧铺),还是等于在抢票,也就是说系统的负载还是会有可能 集中到其中某台服务器上。因此,最好的方法是根据用户的需求——提供出发地和目的地,来对用户进行排队。而这样一来,队列也就可以是多个,只要是多个队 列,就可以水平扩展了。 我觉得完全可以向网上购物学习。在排队(下单)的时候,收集好用户的信息和想要买的票,并允许用户设置购票的优先级,比如,A车次卧铺买 不到就买 B车次的卧铺,如果还买不到就买硬座等等,然后用户把所需的钱先充值好,接下来就是系统完全自动地异步处理订单。成功不成功都发短信或邮件通知用户。这 样,系统不仅可以省去那半个小时的用户交互时间,自动化加快处理,还可以合并相同购票请求的人,进行批处理(减少数据库的操作次数)。这种方法最妙的事是 可以知道这些排队用户的需求,不但可以优化用户的队列,把用户分布到不同的队列,还可以像亚马逊的心愿单一样,让铁道部做车次统筹安排和调整(最后,排队 系统(下单系统)还是要保存在数据库里的或做持久化,不能只放在内存中,不然机器一down,就等着被骂吧)。

    小结

    写了那么多,我小结一下:
    0)无论你怎么设计,你的系统一定要能容易地水平扩展。也就是说,你的整个数据流中,所有的环节都要能够水平扩展。这样,当你的系统有性能问题时,“加3倍的服务器”才不会被人讥笑。

    1)上述的技术不是一朝一夕能搞定的,没有长期的积累,基本无望。

    2)集中式的卖票很难搞定,使用上述的技术可以让订票系统能有几佰倍的性能提升。而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法。

    3)春运前夕抢票且票量供远小于求这种业务模式是相当变态的,让几千万甚至上亿的人在某个早晨的8点钟同时登录同时抢票的这种业务模式是变态中的变态。业务形态的变态决定了无论他们怎么办干一定会被骂。

    4)为了那么一两个星期而搞那么大的系统,而其它时间都在闲着,也就是铁路才干得出来这样的事了。

    posted @ 2012-01-17 15:23 paulwong 阅读(633) | 评论 (1)编辑 收藏

    铁路的售票系统来说明分库分表对架构的影响

    一、问题:铁路的售票系统的数据量是海量吗?

    不是。因为数据量不大,真不大。

    每一个车次与车次间是独立的,每车次不超过2000张票,一天发车不超过50万车次;
    以预售期15天来讲,15*0.1亿张不超过1.5亿笔的热线数据,称不上海量数据的。
    再加上可以按线路分库,更是不到千万级的单表容量。已经发车完成的进入归档分析。
    即数据库按路线使用不同的服务器,不同的车次放在不同的表中。并发量锁真不大。

    当然,如果不分库分表,再加上不归档处理,铁路的售票系统的数据量看起来是海量的;
    关键是这海量的数据没有意义。


    二、如何分库分表?

    2.1 分库,考虑数据间没有直接关系和服务器如何部署

    铁路的售票系统为例来说,按路线分库,再按车次分表是合理的。
    设路线有1万条,按每1000条需要两台服务器(一台热机沉余),不到20台服务器
    如果使用SAN存储,则使用SAN作为存储,本机作为热机沉余,只需要10台。
    当然使用mySQL这种经济型数据库,服务器需要更多来防灾;
    即可以采用双写或多写的方式来保证数据的绝对安全。

    2.2分表,考虑数据间不存在重叠,即数据满足二分原则

    铁路的售票系统的任意两个车次是没有关系的,所以可以分表。
    电信的某个用户的通话和其它用户的通话记录,也是没有关系,所以可以分表处理
    (实际上电信的系统,分库分表后也是不大的,难在后台的计费、结算等规则)



    三、数据库访问接口



    1. 元数据:如何识别到当前要处理的数量在哪张表?

    铁路的售票系统会有一个车次管理系统,例2012年2月12日 D3206 车次,
    按预先设计的在哪台服务器的哪个库,建哪个表。

    2.建立元数据的规则:即具体如何分库分表的规则

    这个就是数据库的访问接口。

    3.数据库访问接口的透明程度

    即哪个层知道哪些元数据信息。
    例,是否让窗口售票的客户端来解析元数据的规则然后缓存,还是通过中间件来解析缓存的

    具体各层使用怎样透明程度,和业务性质、节点和数据中心的拓扑等有关。



    四、历史数据归档与分析

    1.使用分库分表后,数据需要归档,分析处理的程序变得复杂,但使联机交易变得简单
    2.分析:要注意是针对热线数据分析、归档数据分析、混合分析有关,
    通过分库分表和归档,更方便使用分布式的统计方案。

    具体可以参考,淘宝的开放平台架构师写的文章:

    结论:分库分表跟不分库分表,整个架构是完全不一样的。

    像铁票的售票系统、淘宝、电信、银行等,绝对要采用分库分表的数据存储方案,

    来解决数据量的增长而不影响性能的问题。

    像淘宝等互联网应用还要解决带宽即CDN问题。

    posted @ 2012-01-17 13:24 paulwong 阅读(583) | 评论 (0)编辑 收藏

    JBoss下DataSource加密(下)

    数据源文件:my-oracle-ds.xml

    <datasources>
        
    <local-tx-datasource>
            
    <jndi-name>jdbc/my-local</jndi-name>
            <connection-url>
                jdbc:oracle:thin:@10.5.7.30:1521:orcl
            
    </connection-url>
            
    <driver-class>oracle.jdbc.driver.OracleDriver</driver-class>
            <security-domain>EncryptedOracleDbRealm</security-domain>
            
    <exception-sorter-class-name>
                org.jboss.resource.adapter.jdbc.vendor.OracleExceptionSorter
            
    </exception-sorter-class-name>
            
    <metadata>
                
    <type-mapping>Oracle10g</type-mapping>
            
    </metadata>
            
    <depends>
                jboss.security:service=JaasSecurityDomain,domain=ServerMasterPassword
            
    </depends>
        
    </local-tx-datasource>



        
    <mbean code="org.jboss.security.plugins.JaasSecurityDomain"
            name
    ="jboss.security:service=JaasSecurityDomain,domain=ServerMasterPassword">
            
    <constructor>
                
    <arg type="java.lang.String" value="ServerMasterPassword"></arg>
            
    </constructor>
            
    <!-- The opaque master password file used to decrypt the encrypted
                database password key 
    -->
            
    <attribute name="KeyStorePass">
                {CLASS}org.jboss.security.plugins.FilePassword:${jboss.server.home.dir}/conf/server.password
            
    </attribute>
            
    <attribute name="Salt">abcdefgh</attribute>
            
    <attribute name="IterationCount">13</attribute>
        
    </mbean>

    </datasources>

    在jboss4.3/jboss-as/server/default/conf/login-config.xml中增加节点:

    <application-policy name="EncryptedOracleDbRealm">
        
    <authentication>
            
    <login-module
                
    code="org.jboss.resource.security.JaasSecurityDomainIdentityLoginModule"
                flag
    ="required">
                
    <module-option name="username">username</module-option>
                
    <module-option name="password">
                    3wW33nIpavHK4pd3qoNTbA
                
    </module-option>
                
    <module-option name="managedConnectionFactoryName">
                    jboss.jca:service=LocalTxCM,name=jdbc/my-local
                
    </module-option>
                
    <module-option name="jaasSecurityDomain">
                    jboss.security:service=JaasSecurityDomain,domain=ServerMasterPassword
                
    </module-option>
            
    </login-module>
        
    </authentication>
    </application-policy>

    以上的password由下面命令得出:

    E:\JBOSS\jboss4.3\jboss-as\server\default\lib>java -cp jbosssx.jar
    org.jboss.security.plugins.PBEUtils abcdefgh 
    13 master mypassowrd
    Encoded password:  2mqrIBSpp8JVWFAqCBklhf

    生成server.password文件:

    E:\JBOSS\jboss4.3\jboss-as\server\default\lib>java -cp jbosssx.jar
    org.jboss.security.plugins.FilePassword abcdefgh 
    13 master server.password

    产生后拷贝到:${jboss.server.home.dir}/conf中。

    posted @ 2012-01-16 18:58 paulwong 阅读(934) | 评论 (0)编辑 收藏

    Java生成RSA非对称型加密的公钥和私钥(利用java API)

    非对称型加密非常适合多个客户端和服务器之间的秘密通讯,客户端使用同一个公钥将明文加密,而这个公钥不能逆向的解密,密文发送到服务器后有服务器端用私钥解密,这样就做到了明文的加密传送。

    非对称型加密也有它先天的缺点,加密、解密速度慢制约了它的发挥,如果你有大量的文字需要加密传送,建议你通过非对称型加密来把对称型‘密钥’分发到客户端,及时更新对称型‘密钥’。

    package com.paul.module.common.util;

    import sun.misc.BASE64Decoder;
    import sun.misc.BASE64Encoder;

    import java.io.FileInputStream;
    import java.io.FileOutputStream;
    import java.io.ObjectInputStream;
    import java.io.ObjectOutputStream;
    import java.security.Key;
    import java.security.KeyPair;
    import java.security.KeyPairGenerator;

    import javax.crypto.Cipher;

    public class RSASecurityUtil2 {
        
    /** 指定加密算法为RSA */
        
    private static final String ALGORITHM = "RSA";
        
    /** 密钥长度,用来初始化 */
        
    private static final int KEYSIZE = 1024;
        
    /** 指定公钥存放文件 */
        
    private static String PUBLIC_KEY_FILE = "PublicKey";
        
    /** 指定私钥存放文件 */
        
    private static String PRIVATE_KEY_FILE = "PrivateKey";

        
    /**
         * 生成密钥对
         * 
    @throws Exception
         
    */
        
    private static void generateKeyPair() throws Exception {
            
    //        /** RSA算法要求有一个可信任的随机数源 */
    //        SecureRandom secureRandom = new SecureRandom();
            
            
    /** 为RSA算法创建一个KeyPairGenerator对象 */
            KeyPairGenerator keyPairGenerator 
    = KeyPairGenerator.getInstance(ALGORITHM);
            
            
    /** 利用上面的随机数据源初始化这个KeyPairGenerator对象 */
    //        keyPairGenerator.initialize(KEYSIZE, secureRandom);
            keyPairGenerator.initialize(KEYSIZE);
            
            
    /** 生成密匙对 */
            KeyPair keyPair 
    = keyPairGenerator.generateKeyPair();
            
            
    /** 得到公钥 */
            Key publicKey 
    = keyPair.getPublic();
            
            
    /** 得到私钥 */
            Key privateKey 
    = keyPair.getPrivate();
            
            ObjectOutputStream oos1 
    = null;
            ObjectOutputStream oos2 
    = null;
            
    try {
                
    /** 用对象流将生成的密钥写入文件 */
                oos1 
    = new ObjectOutputStream(new FileOutputStream(PUBLIC_KEY_FILE));
                oos2 
    = new ObjectOutputStream(new FileOutputStream(PRIVATE_KEY_FILE));
                oos1.writeObject(publicKey);
                oos2.writeObject(privateKey);
            } 
    catch (Exception e) {
                
    throw e;
            }
            
    finally{
                
    /** 清空缓存,关闭文件输出流 */
                oos1.close();
                oos2.close();
            }
        }

        
    /**
         * 加密方法
         * 
    @param source 源数据
         * 
    @return
         * 
    @throws Exception
         
    */
        
    public static String encrypt(String source) throws Exception {
            generateKeyPair();
            Key publicKey;
            ObjectInputStream ois 
    = null;
            
    try {
                
    /** 将文件中的公钥对象读出 */
                ois 
    = new ObjectInputStream(new FileInputStream(
                        PUBLIC_KEY_FILE));
                publicKey 
    = (Key) ois.readObject();
            } 
    catch (Exception e) {
                
    throw e;
            }
            
    finally{
                ois.close();
            }
            
            
    /** 得到Cipher对象来实现对源数据的RSA加密 */
            Cipher cipher 
    = Cipher.getInstance(ALGORITHM);
            cipher.init(Cipher.ENCRYPT_MODE, publicKey);
            
    byte[] b = source.getBytes();
            
    /** 执行加密操作 */
            
    byte[] b1 = cipher.doFinal(b);
            BASE64Encoder encoder 
    = new BASE64Encoder();
            
    return encoder.encode(b1);
        }

        
    /**
         * 解密算法
         * 
    @param cryptograph    密文
         * 
    @return
         * 
    @throws Exception
         
    */
        
    public static String decrypt(String cryptograph) throws Exception {
            Key privateKey;
            ObjectInputStream ois 
    = null;
            
    try {
                
    /** 将文件中的私钥对象读出 */
                ois 
    = new ObjectInputStream(new FileInputStream(
                        PRIVATE_KEY_FILE));
                privateKey 
    = (Key) ois.readObject();
            } 
    catch (Exception e) {
                
    throw e;
            }
            
    finally{
                ois.close();
            }
            
            
    /** 得到Cipher对象对已用公钥加密的数据进行RSA解密 */
            Cipher cipher 
    = Cipher.getInstance(ALGORITHM);
            cipher.init(Cipher.DECRYPT_MODE, privateKey);
            BASE64Decoder decoder 
    = new BASE64Decoder();
            
    byte[] b1 = decoder.decodeBuffer(cryptograph);
            
            
    /** 执行解密操作 */
            
    byte[] b = cipher.doFinal(b1);
            
    return new String(b);
        }

        
    public static void main(String[] args) throws Exception {
            String source 
    = "恭喜发财!";// 要加密的字符串
            System.out.println("准备用公钥加密的字符串为:" + source);
            
            String cryptograph 
    = encrypt(source);// 生成的密文
            System.out.print("用公钥加密后的结果为:" + cryptograph);
            System.out.println();

            String target 
    = decrypt(cryptograph);// 解密密文
            System.out.println("用私钥解密后的字符串为:" + target);
            System.out.println();
        }
    }


    http://blog.sina.com.cn/s/blog_43b03c72010080t2.html
    http://topic.csdn.net/t/20040510/14/3049788.html
    http://yuanliyin.iteye.com/blog/853334

    posted @ 2012-01-16 00:37 paulwong 阅读(14979) | 评论 (1)编辑 收藏

    仅列出标题
    共110页: First 上一页 85 86 87 88 89 90 91 92 93 下一页 Last