取消
搜索历史

    闲聊Oracle Exadata与Hadoop

    来源:存储网 2012-12-07 17:19大数据

    在文章开始前先作个声明,本人并非专业技术人员,充其量只能算IT从业人员和技术爱好者。这篇文章也不是写给专业技术人员看的技术类文档,只是本人因为工作需要,在学习Oracle Exadata系统架构的过程中,自己的一些感触和体会,只是想分享给对Oracle Exadata和其他计算机技术感兴趣的人们,希望大家能一起探讨。因此这篇文章在谈到技术细节问题时,一定漏洞百出,敬请专业人士指正。

    Oracle Exadata是Oracle公司研发的一款Oracle数据库一体机,关于Exadata的介绍文档,在网上能找到很多,它有很多特性,Smart scan,Smart Flash cache,HCC,Storage index等等,在这篇文章中不对这些特性作详细说明。这篇文章探讨的只是Oracle在设计这款一体机时,借鉴了Hadoop HDFS(Google Gfs的开源实现)等分布式计算集群的一些设计理念,使Oracle数据库的运行环境突破了传统基于共享存储的scale-up架构,创新的使用了基于scale-out的智能存储节点的架构,从而极大地提高了Oracle数据库在海量数据分析类应用的性能。

    一、Hadoop 项目简单介绍:

    由于这篇文章探讨的是Exadata和Hadoop的相似处,因此先简单介绍下Hadoop。

    Hadoop是Apache开源软件基金会的一个项目的总称,它包含了HDFS,MapReduce,Hive,Hbase,Pig等组件,它是基于Googel GFS和MapReduce的论文发展起来的开源软件项目,而HDFS和Hadoop MapReduce是它的核心。

    HDFS是一个开源的分布式文件系统,和单机文件系统一样,它也使用目录树结构,和单机文件系统不同的是,它的文件系统是跨越整个Hadoop集群的,下图是它的架构

    HDFS集群是主从架构,它由一台Namenode节点(Master)和多台Datanode节点(Slaver)构成。Namenode节点和Datanode节点都是标准的x86。Datanode节点采用DAS存储的方式,即x86内置多块大容量硬盘,Datanode节点可以多达上千台。

    HDFS通常用于存储大文件,在HDFS中每个文件都被切割为固定大小的数据块,然后被分散存放于多台Datanode的硬盘上。并且每个数据块都会有副本存放于远端机架的Datanode上,副本数一般设置为三个。Namenode节点不存放实际的文件,而只存放整个文件系统的目录树等元数据。当客户端需要访问存储于HDFS的某个文件时,首先需要访问Namenode节点,以取得文件存放的位置信息(哪几台Datanode,以及在Datanode硬盘上的具体地址),然后根据这些目的地址对各Datanode上存放的数据并行地进行访问。

    HDFS的这种分布式存储架构,主要有几个好处:1、当存储空间不够时,只要简单增加Datanode节点,而系统自动会把数据块分配到新Datanode节点上,而无需人工干预。从而使得Hadoop集群存储的扩展性非常好。2、当客户访问某一文件时,由于该文件存放于多台设备上,因此是由多台Datanode并行处理的,这样大大增加了整个系统的吞吐量。3、HDFS的数据都有多个副本,HDFS 系统在后台自动检测数据的一致性,并能在发生错误时,自动恢复数据,因此系统有很好的可用性。4、由于Hadoop中硬盘是顺序读写的,因此读写硬盘的性能很好。

    但是需要注意的是:Namenode节点为了加快对客户端的响应速度,是把文件目录树等元数据缓存于主内存中的,因此整个文件系统的容量受限于Namenode节点的内存大小,所以说理论上Hadoop集群的扩展性也并非无限的,但相对于传统存储系统,Hadoop的容量已经很大了,据说当前Facebook已经有容量超过100PB的HDFS集群。

    谈完HDFS,再介绍下Hadoop的另一核心MapReduce计算框架(以下斜体字内容引用自博客Lucene的小屋,链接如下:

    http://user.qzone.qq.com/165162897/blog/1257776641#!app=2&via=QZ.HashRefresh&pos=1257092143

    Hadoop Map/Reduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上T级别的数据集。

    一个Map/Reduce 作业(job) 通常会把输入的数据集切分为若干独立的数据块,由 map任务(task)以完全并行的方式处理它们。框架会对map的输出先进行排序, 然后把结果输入给reduce任务。通常作业的输入和输出都会被存储在文件系统中。 整个框架负责任务的调度和监控,以及重新执行已经失败的任务。

    通常,Map/Reduce框架和分布式文件系统是运行在一组相同的节点上的,也就是说,计算节点和存储节点通常在一起。这种配置允许框架在那些已经存好数据的节点上高效地调度任务,这可以使整个集群的网络带宽被非常高效地利用。

    Map/Reduce框架由一个单独的master JobTracker 和每个集群节点一个slave TaskTracker共同组成。master负责调度构成一个作业的所有任务,这些任务分布在不同的slave上,master监控它们的执行,重新执行已经失败的任务。而slave仅负责执行由master指派的任务。

    这张是Hadoop的MapReduce任务调度图:

    这张是MapReduce的工作机制图

    MapReduce简单的理解,就是Master节点(Jobtracker)把客户端提交的任务,分割成很多个小任务,然后交给各Datanode节点(TaskTracker)并行执行Map,Reduce计算,最后提交给客户一个完整的结果。

    我认为MapReduce有几个非常重要的的特点:1多节点并行计算,2大量需要计算的数据在本地,只有计算产生的中间结果或结果才在网络里传输,大大减少了网络流量。

    最后再简单介绍下Hadoop HBase和Hive。

    HBase是构架于HDFS之上的面向列的实时分布式数据库(非关系型),HBase 的设计目的之一是支持高并发用户数的高速读写访问。这是通过两方面来实现的。首先数据行被水平切分并分布到多台服务器上,在大量用户访问时,访问请求也被分散到了不同的服务器上,虽然每个服务器的服务能力有限,但是数千台服务器汇总后可以提供极高性能的访问能力。其次,HBase 设计了高效的缓存机制,有效提高了访问的命中率,提高了访问性能。

    Hive 是一种建立在Hadoop 之上的数据仓库架构。它提供了:

    • 一套方便的实施数据抽取(ETL)的工具。

    • 一种让用户对数据描述其结构的机制。

    • 支持用户对存储在Hadoop 中的海量数据进行查询和分析的能力。

    Hive 的基本特点是它采用HDFS 进行数据存储并利用MapReduce 框架进行数据操作。所以从本质上来说,Hive 就是个编译器,它把用户的操作(查询或者ETL)变换成MapReduce任务,利用MapReduce 框架执行这些任务以对HDFS 上的海量数据进行处理。

    Hive 定义了一种简单的类SQL 查询语言HiveQL,让熟悉SQL 的用户可以非常容易的进行查询。与此同时,HiveQL 也允许熟悉MapReduce 框架的程序员在查询中插入自定义的mapper和reducer 脚本以扩展Hive 内嵌的功能,完成更复杂的分析。

    (文章为作者独立观点,不代表存储网立场,版权疑问请联系客服。)
    关于我们| 隐私条例| 版权申明| 联系我们

    2018-2022 Copyright © Stor.com.cn