要掌握的大数据计算技术.docx

上传人:王** 文档编号:109560 上传时间:2022-12-28 格式:DOCX 页数:8 大小:132.75KB
下载 相关 举报
要掌握的大数据计算技术.docx_第1页
第1页 / 共8页
要掌握的大数据计算技术.docx_第2页
第2页 / 共8页
要掌握的大数据计算技术.docx_第3页
第3页 / 共8页
要掌握的大数据计算技术.docx_第4页
第4页 / 共8页
要掌握的大数据计算技术.docx_第5页
第5页 / 共8页
要掌握的大数据计算技术.docx_第6页
第6页 / 共8页
要掌握的大数据计算技术.docx_第7页
第7页 / 共8页
要掌握的大数据计算技术.docx_第8页
第8页 / 共8页
亲,该文档总共8页,全部预览完了,如果喜欢就下载吧!
资源描述

《要掌握的大数据计算技术.docx》由会员分享,可在线阅读,更多相关《要掌握的大数据计算技术.docx(8页珍藏版)》请在优知文库上搜索。

1、01离线批处理这里所说的批处理指的是大数据离线分布式批处理技术,专用于应对那些一次计算需要输入大量历史数据,并且对实时性要求不高的场景。目前常用的开源批处理组件有MapReduce和SPark,两者都是基于M叩RedUCe计算模型的。LMapReduce计算模型MapReduce是Google提出的分布式计算模型,分为Map阶段和Reduce阶段。在具体开发中,开发者仅实现map()和reduce。两个函数即可实现并行计算。MaP阶段负责数据切片,进行并行处理,RedUCe阶段负责对MaP阶段的计算结果进行汇总。这里举一个通俗的例子帮助你理解。假如现在有3个人想打一种不需要36的扑克牌游戏,需

2、要从一副扑克牌中去掉这些牌,过程描述如下:第一步,将这一副牌随机分成3份,分给3个人,然后每个人一张张查看手中的牌,遇到36的牌就挑出去;第二步,等所有人都完成上面的步骤后,再将每个人手上剩余的牌收集起来。在这个过程中,第一步操作属于MaP阶段,相当于对每张牌做一次判断(映射、函数运算),是否保留;第二步属于RedUCe阶段,将结果汇总。MaPRedUCe数据流图如图1所示C输入图IMaPRedUCe数据流图MapReduce处理的数据格式为键-值格式,一个MapReduce作业就是将输入数据按规则分割为一系列固定大小的分片,然后在每一个分片上执行MaP任务,MaP任务相互独立,并行执行,且会

3、在数据所在节点就近执行;当所有的MaP任务执行完成后,通过缓存机制将分散在多个节点的键值相同的数据记录拉取到同一节点,完成之后的RedUCe任务,最后将结果输出到指定文件系统,比如HDFS、HBaseo基于以上解释和描述,可以看出MaPRedUCe不适合实现需要迭代的计算,如路径搜索。2.SparkSpark是基于内存计算的大数据并行计算框架,最初由美国加州大学伯克利分校的AMP实验室于2009年开发,于2010年开源,是目前最主流的批处理框架,替代了MapReduceo整个SPark项目由四部分组成,包括SParkSQL、SparkStreamingsMLlib、Graphx,如图2所示。其

4、中SParkSQL用于OLAP分析,Streaming用于流式计算的(微批形式),MLlib是SPark的机器学习库,GraPhX是图形计算算法库。SPark可在HadooPYARN、MesosxKUbemeteS上运行,可以访问HDFS,AlluxioCassandraxHBaSe等数据源OSparkSQLSparkStreamingMLlib(machinelearning)GraphX(graph)ApachcSpark图2SPark组件SPark使用先进的DAG(DirectedAcyclicGraph,有向无环图)执行引擎,支持中间结果仅存储在内存中,大大减少了IO开销,带来了更高的

5、运算效率,并且利用多线程来执行具体的任务,执行速度比MaPRedUCe快一个量级。在SPark中,SPark应用程序(APPIiCatiOn)在集群上作为独立的进程集运行,由主程序(称为DriVer)的SParkConteXt中的对象协调,一个Application由一个任务控制节点(Driver)和若干个作业(Job)构成。Driver是Spark应用程序main函数运行的地方,负责初始化Spark的上下文环境、划分RDD,并生成DAG,控制着应用程序的整个生命周期。Job执行MaPRedUCe运算,一个JOb由多个阶段(Stage)构成,一个阶段包括多个任务(Task),TaSk是最小的工

6、作单元。在集群环境中,DriVer运行在集群的提交机上,TaSk运行在集群的WorkerNOde上的EXeCUtor中。EXeCUtOr是运行在SPark集群的WorkerNode上的一个进程,负责运行Task,EXeCUtor既提供计算环境也提供数据存储能力。在执行过程中,APPIiCatiOn是相互隔离的,不会共享数据。SPark集群架构示意图如图3所示。WorkerNode图3SPark集群架构具体来说,当在集群上执行一个应用时,SParkCOnteXt可以连接到集群资源管理器(如YARN),获取集群的WorkerNode的EXeCUtor,然后将应用程序代码上传到Executor中,再

7、将Task发送给Executor运行。Spark的核心数据结构是RDD(ResilientDistributedDataset,弹性分布式数据集),只支持读操作,如需修改,只能通过创建新的RDD实现。02实时流处理当前实时处理数据的需求越来越多,例如实时统计分析、实时推荐、在线业务反欺诈等。相比批处理模式,流处理不是对整个数据集进行处理,而是实时对每条数据执行相应操作。流处理系统的主要指标有以下几个方面:时延、吞吐量、容错、传输保障(如支持恰好一次)、易扩展性、功能函数丰富性、状态管理(例如窗口数据)等。目前市面上有很多成熟的开源流处理平台,典型的如StOrm、Flink、SparkStrea

8、mingo三者的简单对比如下:Storm与Flink都是原生的流处理模型,SparkStreaming是基于Spark实现的微批操作;SparkStreaming的时延相对前两者高;Flink与Streaming的吞吐量高,支持的查询功能与计算函数也比StOrm多。总体来说,Flink是这三者中综合性能与功能更好的流平台,当前的社区发展也更火热。LFlink简介Flink最初由德国一所大学开发,后进入APaChe孵化器,现在已成为最流行的流式数据处理框架。FIink提供准确的大规模流处理,支持高可用,能够7x24小时全天候运行,支持exactly-once语义、支持机器学习,具有高吞吐量和低延

9、迟的优点,可每秒处理数百万个事件,毫秒级延迟,支持具有不同的表现力和灵活性的分层API,支持批流一体。2.Flink的架构Flink是一个分布式系统,可以作为独立群集运行,也可以运行在所有常见的集群资源管理器上,例如HadoopYARN、ApacheMesos和KubernetesoFlink采用主从架构,Flink集群的运行程序由两种类型的进程组成:JobManager和一个或多个TaSkManageroTaskManager连接到JObManager,通知自己可用,并被安排工作。两者的功能如下所示:JobManagei负责协调Flink应用程序的分布式执行,完成任务计划、检查点协调、故障恢

10、复协调等工作。高可用性设置需要用到多个JObManager,其中一个作为领导者(leader),其他备用。TaskManager,也称为Worker,负责执行数据处理流(dataflow)的任务,并缓冲和交换数据流。TaSkManager中资源调度的最小单位是任务槽(SIot),TaskManager中slot的数量代表并发处理任务的数量。Flink架构示意图如图4所示。(Worker)(Worker)图4Flink架构客户端(Client)不是FIink运行程序的一部分,它在给JObManager发送作业后,就可以断开连接或保持连接状态以接收进度报告。3 .Flink对数据的处理方式流处理是

11、对没有边界数据流的处理。执行时,应用程序映射到由流和转换运算符组成的流式数据处理流。这些数据流形成有向图,以一个或多个源(source)开始,以一个或多个输出(sink)结束。程序中的转换与运算符之间通常是一对一的关系,但有时一个转换可以包含多个运算符。FIink流式处理步骤示例如图5所示。DataStrcamlincs=cnv.addSource(newFIinkKafkaConsumer(.);DataStrcamevents=lines.map(line)-parsc(line);转换DataStrcamevent.id)_转换.timeWindowfTimcsccondsC10).ap

12、ply(newMyWindowAggregationFunction();图5FIink流式处理步骤示例最高层语言声明性领域特定语言TableAPl核心APlStatcfulStream ProcessingDataStrcainDataSct API4 .Flink的接口抽象FIink为开发流、批处理的应用提供了四层抽象,实践中大多数应用程序是基于核心API的DataStreamZDataSetAPI进行编程的,四层抽象从低到高的示意图如图6所示。底层构建块(streams.state.cvcnttimc)图6Flink接口抽象层次- Low-level:提供底层的基础构建函数,用户可以注册

13、事件时间和处理时间回调,从而允许程序实现复杂的计算。- CoreAPI:DataStreamAPI(有界/无界流)和DataSetAPl(有界数据集)o基于这些APL用户可以实现transformation、join、aggregationwindows.State等形式的数据处理。- TableAPI:基于表(table)的声明性领域特定语言(DSL)oTableAPI遵循(扩展的)关系模型,表具有附加的表结构(SChema),并且该APl提供类似关系模型的操作,例如SeleCt、join、group-bysaggregate等。TableAPI的表达性不如COreAPI,但优点是使用起来更为简洁,编码更少。Flink支持在表和DataStreamZDataSet之间进行无缝转换,因此可以将TableAPI与DataStreamZDataSetAPI混合使用。-SQL:此层是最高层的抽象,在语义和表达方式上均类似于TableAPI,但是将程序表示为SQL查询表达式。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 并行计算/云计算

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!