敏捷、分布式、ALM过程自动化、企业应用架构
posts - 14, comments - 0, trackbacks - 0, articles - 1
  BlogJava :: 首页 :: 新随笔 :: 联系 :: 聚合  :: 管理

2012年5月15日

Hadoop实施已经有快一个月了,对Hadoop的概念理解、使用,Linux与shell脚本,甚至mysql都有了更多的理解。


项目背景:用于互联网信息收集后的关键词匹配与内容提取。

主要系统架构分为互联网爬虫、分析、业务应用三块:

简单架构描述

由于我在当中的角色主要负责分析架构的搭建,所以其他两块都画得简单,下面也不会过多的描述。


Hadoop理解:提到Hadoop都想到的是云、分布式计算,在一段时间的实施之后有了一些具体的理解。

Hadoop的优势:

针对性能指标,当业务数据量总量或增速上升到一定级别,依靠关系型数据库一定无法支持。对于非关系型数据库,包括Nosql和Solr一类存储方式,稍显复杂,对于机器集群性能要求偏高(相对于文件系统)。从数据使用模式上来讲,目前海量数据的常常是不包含复杂逻辑的简单统计整理(比如上述系统中的关键词匹配)。这时候文件系统的优势反而比较明显(结构简单,逻辑简单)。

如上述系统的应用场景是怎么样的呢,在一个强大的爬虫系统之下,每个小时的数据增量在G到10G的级别,需要搜索所有的文件,获取关键字的匹配,并且对匹配内容进行摘要。很类似我们windows里面的搜索功能,需要解决的就是如何在这样增幅的文件系统之下,如何满足业务系统的需求。

分析系统有什么要求呢?

能够建立集群,分布式的保存数据文件内容(统一控制,可配置)。

有一定的保护机制,保证数据或节点丢失不会影响系统使用。

如果有一个任务脚本执行框架机制就好了(用于并行计算)。

能够进行节点间的数据均衡。

能够简单的查看所有的状态与日志(web客户端)

可能主要是这些了。若自己实现,确实是个复杂而庞大的工程,现在我们有了Hadoop。


系统物理架构:

我们使用了一台服务器,利用虚拟化,安装了7套64x位的CentOS。一个Namenode,6个Datanode,复制数设置为3。每个系统分配到一个cpu,2G内存,Datanode挂载了500G的存储空间。

理想的Hadoop的搭建环境,参照《Best Practices for Selecting Apache Hadoop Hardware》(http://hortonworks.com/blog/best-practices-for-selecting-apache-hadoop-hardware/)一文,以及一些其他的文章。

CPU:最好是双CPU,8核左右。不用太高了。

内存:推荐48G,但是4G应该就可以运行Hadoop了。

硬盘:7200转的SATA硬盘即可,Hadoop很占空间,所以尽量加。

网络:内部的数据交换要求非常高,内网最好是千兆网卡,带宽为1GB。

理想与现实,有钱与没钱,呵呵。


系统软件架构:

Hadoop:版本使用的是1.0.3,再下来就是2了,为了尽量简化应用,所以不考虑2的新特性。对Hadoop没有做太多的设置,基本基于默认。70为Namenode,71-76为Datanode。

JDK:1.6.0_33 (64x)


系统实施过程:

HDFS部分:

爬虫抓取数据,整理后存放在50文件服务器,70以外部挂载的形式读取。网页文件比较小,假如直接写入Hadoop对Namenode负载过大,所以入库前合并,将每小时网页整合成为一个文件写入HDFS,由于区分类别,所以每小时基本写入10个文件左右,总量在5-8G,耗时在40-50分钟。(这个过程中,由于爬虫的IO过于频繁,导致文件读取困难,所以做了定时任务,每小时启动一次,将需要处理的文件先拷贝到临时区域,合并入库之后再删除。此处应该是受到单核cpu的限制,所有操作均是串行,包括拷贝(cp)和合并入库(java),所以Namenode严重建议配置稍高。)

此处没有太多问题。

MapReduce部分:

写入完成后,进行分析工作,MapReduce。此处的工作过程为:数据库定时生成关键词列表文件。Job执行时会读取列表文件,匹配指定范围内的HDFS文件(过去一小时),匹配出对应的表达式与HTML,Map过程结束。在Reduce阶段,会将Map的所有数据入数据库(Mysql)。

此处出现过一些问题,记录下来。

1. Reduce阶段需要加载Mysql的第三方驱动包。我在三个环境测试过(公司、家里、发布环境),使用 -libjars 一定可以,有的地方不需要也可以。不明确,怀疑与HADOOP_HOME环境变量有关。

2. MR过程中使用log4j打印日志,在Hadoop临时目录(如果你没有配置dfs.name.dir,dfs.data.dir,mapred.local.dir.mapred.system.dir等目录,这些都会在hadoop.tmp.dir当中,我就偷懒都没配置)mapred文件夹中查看一下。

整个过程实际上还是比较简单的,基本编码量就在Job的部分,但是一个Java文件就够了。在目前初级阶段应该还是比较好用的。现在还没有测试Job的执行效率。完成后会继续记录下来。有什么问题可以提出。我想到什么也会在本文继续更新。

posted @ 2012-08-08 20:21 一酌散千忧 阅读(570) | 评论 (0)编辑 收藏

硬件资源:

三台CentOS5.6虚拟机(Vmware

本机 windows7 64x

 

基本资源配置:

三台虚拟机均是克隆自同一个镜像

已经安装了Java环境(jdk1.6.0_25

Hadoop路径在/usr/hadoop/hadoop-0.20.205.0

 

操作步骤:

1、机器名称规范

ip分别为128129130,将128设置为master,其他设置为slave

修改

/etc/sysconfig/network

/etc/hosts

两处配置,名称分别为hadoop-master\hadoop-slave01\hadoop-slave02

注意:此处名称最好不用使用下划线,有可能引发namenode的启动异常。

 

2、修改Hadoop配置 

master节点的conf中修改masterslave文件,分别为机器的ip地址

 

修改master节点的conf中:

core-site.xml

<property>

<name>fs.default.name</name>

<value>hdfs://ip-master:9000</value>

</property>

 

mapred-site.xml

<property>

<name>mapred.job.tracker</name>                                   

<value>master:9001</value>                                

</property>

 

hdfs-site.xm

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

注意此处的端口号均为默认。

 

 

3、建立m-s之间的ssh连接

首先masterslave机器都需要进行ssh信任文件生成,执行如下命令:

$ ssh-keygen -t rsa

中间需要输入的地方直接回车,接受缺省值即可

 

由于使用root用户登录,所以密钥文件生成在 /root/.ssh/文件夹下,存有一对密钥id_dsaid_dsa.pub

此处id_dsa(私钥)必须为其他用户不可读,所以文件属性应当是600

 

master机器执行:

id_dsa.pub(公钥)复制为 authorized_keys

$ cp id_dsa.pub authorized_keys

如果是多台机器需要,无密码登陆,则各自机器产生公钥追加到authorized_keys即可.

 

使用scp协议覆盖slave端的密钥文件夹,使得slave机器信任来自master的连接:

$ scp /root/.ssh/* ip-slave:/root/.ssh

 

 

4、启动服务 

建议将$HADOOP_HOME/bin下的所有文件给与执行权限:

$ chmod 777 bin

 

master作为namenod需要执行如下脚本:

$HADOOP_HOME/bin/hadoop namenode –format

 

完成后执行 $HADOOP_HOME/bin/start-all.sh

 

5、问题检查

Hadoop根目录下的logs文件中,检查各个服务日志的启动情况

 

 

6、其他情况说明:

Q: $HADOOP_HOME is deprecated

A: 基本不会产生任何影响。由于脚本启动时设置了该环境变量,就会提示用户原有环境变量失效。可以取消环境变量设置,或者直接去bin/hadoop中找到这句话,去掉即可

 

Q: 无效的选项 -jvm / Unrecognized option: -jvm

A: 在使用root用户登录时 bin/hadoop 脚本就会进行判断,加上-jvm参数。此处是为了进入jsvchttp://commons.apache.org/daemon/jsvc.html),此处并不确定是否bug,也不再进行详细的追溯,解决方法就是进入 bin/hadoop 脚本中 找到 jvm 参数并去掉。

 

 

 

 

 

 

 

posted @ 2012-07-04 07:38 一酌散千忧 阅读(572) | 评论 (0)编辑 收藏

公司里有同事时常抱怨,项目的用户体验太差,常常挨领导的骂。大家都认为是在用户体验的设计方面,公司人员的能力和经验都不足引起的。发牢骚的时候也会说,如果公司能够请得起“淘宝”的UI设计师,咱们的系统肯定会更上一层楼。我之前也一直认为如此,即我们的设计是影响项目体验的重要原因。最近被领导调动去协助一个项目,产生了一些不一样的体会。

项目背景,一个新的产品,小型项目,纯开发人员3-4人,2名熟练开发人员,1名新手,偶尔会有协助人员。没有技术经理,项目经理身负多个项目,对项目进度关心不足,部门经理会协助进行工作和进度管理。可以看到管理还是比较混乱。

由于项目进度太慢,领导要求从我这边调一个熟练人员协助开发。我也基本了解他们的项目状况,为了不让我的人进去抓瞎,我就和他一起去了解项目情况。

项目状况比较糟糕,介入项目时已经开发了一段时间,保留的文档只有两份,一副数据库说明,一份非常粗略的需求说明,而且还与开发进度不同步,就是没有维护。

我了解了一下项目目前的难度,开发人员和我反映一个是人员熟练程度的问题,二是需求变更的问题。我整体了解了一下项目目前的需求和设计,以及进度。就挑了一个模块询问他们的变更情况,这个模块是一个关键词匹配功能。结果是领导看了他们的页面之后,嫌信息量太少,就要求提供一些更细化的数据展示。开发人员问我有什么意见,我就简单讲了一下页面大概怎么构建。其中有一个点,是用于变更数据范围,即查询的表变更,我一开始觉得使用下拉框就可以,产生了一些意见。有人建议分为不同子模块,或者tab页,或者分为多块并列展示。我想了想,就给他们讲了我认为几种方案的优点缺点及适用范围。

 

1.       多块并行展示:

多个不同范围的数据在同一页面中分为不同区域以相同形式展示。原因是由于多块数据之间有一定的关联因果关系,或值得对比。适用范围:如购物网站中的多个物品比较。

2.       Tab页:

同一个页面的多个tab页,表示多个tab页中的数据可能在一定的领域概念之下有一定的关联,但关联度不强。因为tab页更重要的是强调一个同步工作的状态,即A tab页查看一定信息,会打开B tab页查看其他信息,中途还会切回A tab页。适用范围:如邮箱中,收件箱和草稿箱。

3.       下拉框

下拉框作为查询条件的一部分,常用于有着常规或固定的可选择内容中(如性别,月份),更多是以过滤的形态出现,即下拉框更适合针对某表的某个字段过滤,如果针对的是数据范围或是对用户需要直观了解的重要业务条件则不太合适。适用范围:如在考试成绩中使用下拉框过滤“男女”或“及格不及格”。

4.       单选框

单选框与下拉框的作用范围相似,但是不同之处在于将被选项全部展示,目的在于能够让用户清楚的了解当前数据显示的实际范围或条件,以及备选的其他范围或条件。更适用于选项与实际业务及当前展示数据关系重要,不同选项可能会引发用户的不同行为。适用范围:如银行系统显示了当前用户下绑定多个帐号时,使用单选框。

 

经过上述讨论,我们仔细分析了这个模块中用户的实际需求,以及可能后续操作,最终选择的单选框的方案。

目前还没有后续,但是我想我们基于用户真是需求的挖掘和后续操作的认真分析,会让我们在与领导进行需求讨论的时候有更加充分合理的依据。

回来之后我又看了看淘宝的搜索页面,比如就搜索“鞋子”来讲,将品牌这栏设置为单选和下拉将是完全不同的效果,而确定方案的理由则是对于用户的需求和实际行为的深入研究。这个应该是需求分析和调研的结果。将搜索条件以tag的形式标注于页面上,并且可以直接点击X按钮进行删除,我觉得更加可以倾向为用户体验。满足并充分考虑了用户实际需求的是好的需求分析,能够简化并引导用户行为的是好的用户体验。

当我们面临的系统感觉非常难用的时候,往往这时候并非是用户体验差,我们应该检讨的是我们对用户需求有没有好好挖掘,做出来的是不是用户想要、用户能用的系统。

posted @ 2012-05-22 05:02 一酌散千忧 阅读(245) | 评论 (0)编辑 收藏

Zookeeper的核心概念:

ZNode

Znode就是核心结构,Zookeeper服务中是由大量的Znode构成。Znode一般是由客户端建立和修改,作为信息或标志的载体,甚至本身就是标志。

Znode可以设置为持久(PERSISTENT)或临时(EPHEMERAL),区别在于临时的节点若断开连接后就自动删除。建立节点时可选择是否使用序列号命名(SEQUENTIAL),若启用则会自动在节点名后加入唯一序列编号。

Session

作为客户端和Zookeeper服务之间交互的凭证。

Watch

当客户端对节点信息进行查询操作之后,可以选择是否设置一个Watch。其作用就是当本次查询的数据在服务器端发生变化之后,会对设置Watch的客户端发送通知。一次发送之后,就将删除该Watch,以后的变更或不再设置Watch则不会通知。

ACLs

节点的权限限制使用ACL,如增删改查操作。

Zookeeper的服务器安装:

1、下载对应版本号的tar.gz文件

2、使用 tar xzvf zookeeper-3.4.2.tar.gz -C ./ 解压

3、设置,将conf/zoo.example.cfg复制到conf/zoo.cfg或者手动建立一个新的。

4、启动Zookeeper服务:bin/zkServer.sh start

5、启动客户端连接:bin/zkCli.sh -server 127.0.0.1:2181(此处在本机,且使用了默认端口,且在Java环境中)

6、使用命令:ls、get、set等。

7、关闭Zookeeper服务:bin/zkServer.sh stop

Zookeeper代码编写:

代码编写部分比较简单,因为暴露的接口很少,主要复杂在于项目如何使用节点以及节点信息。

启动Zookeeper服务之后,客户端代码进行节点的增删,Watch的设置,内容的改查等。

此处建议查看官方的《Programming with ZooKeeper - A basic tutorial》部分,当中举了两个例子来模拟分布式系统的应用。

代码基本没有问题,唯一需要注意的就是:若之间按照原版进行调试时,有可能在调用

 Stat s = zk.exists(root, false);

这句代码时会出现一个异常,当中包括“KeeperErrorCode = ConnectionLoss for”。

这个问题引起的原因可以看一下代码

                System.out.println("Starting ZK:");
                zk 
= new ZooKeeper(address, 3000this);
                mutex 
= new Integer(-1);
                System.out.println(
"Finished starting ZK: " + zk);

最后一行有打印出Zookeeper目前的信息,若未修改的原代码,此处的State应当是CONECTING。连接中的时候去验证是否存在节点会报错。解决的方法也很简单,就是等到Zookeeper客户端以及完全连接上服务器,State为CONECTED之后再进行其他操作。给出代码示例:

// 使用了倒数计数,只需要计数一次
private CountDownLatch connectedSignal = new CountDownLatch(1); 
SyncPrimitive(String address) {
    
if(zk == null){
        
try {
            System.out.println(
"Starting ZK:");
            zk 
= new ZooKeeper(address, 3000this);
            mutex 
= new Integer(-1);
            connectedSignal.await(); 
// 等待连接完成
            System.out.println("Finished starting ZK: " + zk);
        } 
catch (IOException e) {
            System.out.println(e.toString());
            zk 
= null;
        } 
catch (InterruptedException e) {
            
// TODO Auto-generated catch block
            e.printStackTrace();
        }
    }
    
//else mutex = new Integer(-1);
}
synchronized public void process(WatchedEvent event) {
    
// 此处设立在Watch中会在状态变化后触发事件
    if (event.getState() == KeeperState.SyncConnected) {
        connectedSignal.countDown();
// 倒数-1
    }
    
        
synchronized (mutex) {
            
//System.out.println("Process: " + event.getType());
            mutex.notify();
        }
}

这样就可以正确运行代码了。

Zookeeper的应用场景及方式:

此处是为引用,原地址为(http://rdc.taobao.com/team/jm/archives/1232 

ZooKeeper是一个高可用的分布式数据管理与系统协调框架。基于对Paxos算法的实现,使该框架保证了分布式环境中数据的强一致性,也正是基于这样的特性,使得zookeeper能够应用于很多场景。网上对zk的使用场景也有不少介绍,本文将结合作者身边的项目例子,系统的对zk的使用场景进行归类介绍。 值得注意的是,zk并不是生来就为这些场景设计,都是后来众多开发者根据框架的特性,摸索出来的典型使用方法。因此,也非常欢迎你分享你在ZK使用上的奇技淫巧。

场景类别

典型场景描述(ZK特性,使用方法)

应用中的具体使用

数据发布与订阅

发布与订阅即所谓的配置管理,顾名思义就是将数据发布到zk节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,地址列表等就非常适合使用。

1. 索引信息和集群中机器节点状态存放在zk的一些指定节点,供各个客户端订阅使用。2. 系统日志(经过处理后的)存储,这些日志通常2-3天后被清除。 

3. 应用中用到的一些配置信息集中管理,在应用启动的时候主动来获取一次,并且在节点上注册一个Watcher,以后每次配置有更新,实时通知到应用,获取最新配置信息。

4. 业务逻辑中需要用到的一些全局变量,比如一些消息中间件的消息队列通常有个offset,这个offset存放在zk上,这样集群中每个发送者都能知道当前的发送进度。

5. 系统中有些信息需要动态获取,并且还会存在人工手动去修改这个信息。以前通常是暴露出接口,例如JMX接口,有了zk后,只要将这些信息存放到zk节点上即可。

Name Service

这个主要是作为分布式命名服务,通过调用zk的create node api,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。

 

分布通知/协调

ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理。

1. 另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。2. 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了ZK上某些节点的状态,而zk就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。 

3. 另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。

总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合。

分布式锁

分布式锁,这个主要得益于ZooKeeper为我们保证了数据的强一致性,即用户只要完全相信每时每刻,zk集群中任意节点(一个zk server)上的相同znode的数据是一定是相同的。锁服务可以分为两类,一个是保持独占,另一个是控制时序。 

所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。

控制时序,就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distribute_lock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERAL_SEQUENTIAL来指定)。Zk的父节点(/distribute_lock)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

 

集群管理

1. 集群机器监控:这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行,但是存在两个比较明显的问题:1. 集群中机器有变动的时候,牵连修改的东西比较多。2. 有一定的延时。 

利用ZooKeeper有两个特性,就可以实时另一种集群机器存活性监控系统:a. 客户端在节点 x 上注册一个Watcher,那么如果 x 的子节点变化了,会通知该客户端。b. 创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。

例如,监控系统在 /clusterServers 节点上注册一个Watcher,以后每动态加机器,那么就往 /clusterServers 下创建一个 EPHEMERAL类型的节点:/clusterServers/{hostname}. 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。
2. Master选举则是zookeeper中最为经典的使用场景了。

在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。

利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。

利用这个特性,就能很轻易的在分布式环境中进行集群选取了。

另外,这种场景演化一下,就是动态Master选举。这就要用到 EPHEMERAL_SEQUENTIAL类型节点的特性了。

上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样: /currentMaster/{sessionId}-1 , /currentMaster/{sessionId}-2 , /currentMaster/{sessionId}-3 ….. 每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上小时,那么之后最小的那个机器就是Master了。

1. 在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成,然后同步到集群中其它机器。2. 另外,Master选举的容灾措施是,可以随时进行手动指定master,就是说应用在zk在无法获取master信息时,可以通过比如http方式,向一个地方获取master。

分布式队列

队列方面,我目前感觉有两种,一种是常规的先进先出队列,另一种是要等到队列成员聚齐之后的才统一按序执行。对于第二种先进先出队列,和分布式锁服务中的控制时序场景基本原理一致,这里不再赘述。 

第二种队列其实是在FIFO队列的基础上作了一个增强。通常可以在 /queue 这个znode下预先建立一个/queue/num 节点,并且赋值为n(或者直接给/queue赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList 下建立自己的临时时序节点(CreateMode.EPHEMERAL_SEQUENTIAL),当 /taskList 发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。

 

posted @ 2012-05-15 11:02 一酌散千忧 阅读(4811) | 评论 (0)编辑 收藏