当前位置: 首页 > news >正文

广州市做网站的/合肥网站推广电话

广州市做网站的,合肥网站推广电话,南京网站开发南京乐识行,威海网站制作都有哪些大数据技术与架构点击右侧关注,大数据开发领域最强公众号!暴走大数据点击右侧关注,暴走大数据!By 大数据技术与架构场景描述:Flink是标准的实时处理引擎,而且Spark的两个模块Spark Streaming和Structured S…

ff925c0dc236fb34aac4a83c4f09724b.png

大数据技术与架构点击右侧关注,大数据开发领域最强公众号!46fc268faf9e80f30d66750ec37d3e04.png

a4a2404195501dbb394ae1ca8719592a.png

暴走大数据点击右侧关注,暴走大数据!87815c440b0f492f550843c045488b03.pngBy 大数据技术与架构场景描述:Flink是标准的实时处理引擎,而且Spark的两个模块Spark Streaming和Structured Streaming都是基于微批处理的,不过现在Spark Streaming已经非常稳定基本都没有更新了,然后重点移到spark sql和structured Streaming了。关键词:Flink  SparkFlink和Spark的区别在编程模型、任务调度、时间机制、Kafka 动态分区的感知、容错及处理语义、背压等几个方面存在不同。下面的几点容易被大家忽略,也值得我们注意,希望对大家有帮助。

维表join和异步IO

Structured Streaming不直接支持与维表的join操作,但是可以使用map、flatmap及udf等来实现该功能,所有的这些都是同步算子,不支持异步IO操作。但是Structured Streaming直接与静态数据集的join,可以也可以帮助实现维表的join功能,当然维表要不可变。Flink支持与维表进行join操作,除了map,flatmap这些算子之外,flink还有异步IO算子,可以用来实现维表,提升性能。 

状态管理

状态维护应该是流处理非常核心的概念了,比如join,分组,聚合等操作都需要维护历史状态。那么flink在这方面很好,structured Streaming也是可以,但是spark Streaming就比较弱了,只有个别状态维护算子upstatebykye等,大部分状态需要用户自己维护,虽然这个对用户来说有更大的可操作性和可以更精细控制但是带来了编程的麻烦。flink和Structured Streaming都支持自己完成了join及聚合的状态维护。

Structured Streaming有高级的算子,用户可以完成自定义的mapGroupsWithState和flatMapGroupsWithState,可以理解类似Spark Streaming 的upstatebykey等状态算子。

就拿mapGroupsWithState为例:

由于Flink与Structured Streaming的架构的不同,task是常驻运行的,flink不需要状态算子,只需要状态类型的数据结构。

首先看一下Keyed State下,我们可以用哪些原子状态:

  • ValueState:即类型为T的单值状态。这个状态与对应的key绑定,是最简单的状态了。它可以通过update方法更新状态值,通过value()方法获取状态值。

  • ListState:即key上的状态值为一个列表。可以通过add方法往列表中附加值;也可以通过get()方法返回一个Iterable来遍历状态值。

  • ReducingState:这种状态通过用户传入的reduceFunction,每次调用add方法添加值的时候,会调用

  • reduceFunction,最后合并到一个单一的状态值。

  • FoldingState:跟ReducingState有点类似,不过它的状态值类型可以与add方法中传入的元素类型不同(这种状态将会在Flink未来版本中被删除)。

  • MapState:即状态值为一个map。用户通过put或putAll方法添加元素。

 

Join操作

Flink的join操作

flink的join操作没有大的限制,支持种类丰富,比如:

Inner Equi-join

SELECT * FROM Orders INNER JOIN Product ONOrders.productId = Product.id
Outer Equi-join
SELECT *FROM Orders LEFT JOIN Product ON Orders.productId =Product.idSELECT *FROM Orders RIGHT JOIN Product ON Orders.productId =Product.idSELECT *FROM Orders FULL OUTER JOIN Product ONOrders.productId = Product.id
Time-windowed Join
SELECT * FROM Oderso,Shipmentss WHEREo.id=s.orderIdAND o.ordertimeBETWEENs.shiptime INTERVAL'4'HOURANDs.shiptime
Expanding arrays into a relation
SELECT users, tagFROM Orders CROSS JOIN UNNEST(tags) AS t (tag)
Join with Table Function
Inner JoinA row of the left (outer) table is dropped, if its table function call returns an empty result.SELECT users, tagFROM Orders, LATERAL TABLE(unnest_udtf(tags)) t AS tagLeft Outer JoinIf a table function call returns an empty result, the corresponding outer row is preserved and the result padded with null values.SELECT users, tagFROM Orders LEFT JOIN LATERAL TABLE(unnest_udtf(tags)) t AS tag ON TRUE
Join with Temporal Table
SELECT o_amount, r_rateFROM Orders,LATERAL TABLE (Rates(o_proctime))WHERE r_currency = o_currency

Structured Streaming的join操作

Structured Streaming的join限制颇多了,限于篇幅问题在这里只讲一下join的限制。具体如下表格:

642ee5b0c1b2dbb75247f850e6c65a45.png

 

容错机制及一致性语义

本节内容主要是想对比两者在故障恢复及如何保证仅一次的处理语义。这个时候适合抛出一个问题:实时处理的时候,如何保证数据仅一次处理语义?

Spark Streaming 保证仅一次处理

对于 Spark Streaming 任务,我们可以设置 checkpoint,然后假如发生故障并重启,我们可以从上次 checkpoint 之处恢复,但是这个行为只能使得数据不丢失,可能会重复处理,不能做到恰一次处理语义。

对于 Spark Streaming 与 kafka 结合的 direct Stream 可以自己维护 offset 到 zookeeper、kafka 或任何其它外部系统,每次提交完结果之后再提交 offset,这样故障恢复重启可以利用上次提交的 offset 恢复,保证数据不丢失。但是假如故障发生在提交结果之后、提交 offset 之前会导致数据多次处理,这个时候我们需要保证处理结果多次输出不影响正常的业务。

由此可以分析,假设要保证数据恰一次处理语义,那么结果输出和 offset 提交必须在一个事务内完成。在这里有以下两种做法:

repartition(1) Spark Streaming 输出的 action 变成仅一个 partition,这样可以利用事务去做:

Dstream.foreachRDD(rdd=>{   rdd.repartition(1).foreachPartition(partition=>{    //    开启事务       partition.foreach(each=>{//        提交数据       })    //  提交事务   }) })
  • 将结果和 offset 一起提交

也就是结果数据包含 offset。这样提交结果和提交 offset 就是一个操作完成,不会数据丢失,也不会重复处理。故障恢复的时候可以利用上次提交结果带的 offset。

Flink 与 kafka 0.11 保证仅一次处理

若要 sink 支持仅一次语义,必须以事务的方式写数据到 Kafka,这样当提交事务时两次 checkpoint 间的所有写入操作作为一个事务被提交。这确保了出现故障或崩溃时这些写入操作能够被回滚。

在一个分布式且含有多个并发执行 sink 的应用中,仅仅执行单次提交或回滚是不够的,因为所有组件都必须对这些提交或回滚达成共识,这样才能保证得到一致性的结果。Flink 使用两阶段提交协议以及预提交(pre-commit)阶段来解决这个问题。

本例中的 Flink 应用如图 11 所示包含以下组件:

  • 一个source,从Kafka中读取数据(即KafkaConsumer)

  • 一个时间窗口化的聚会操作

  • 一个sink,将结果写回到Kafka(即KafkaProducer)

e719842f77e8ccc3f03e606e9d25590d.png

下面详细讲解 flink 的两段提交思路:

3dabefc1191645114ed5959531a37518.png

如图 12 所示,Flink checkpointing 开始时便进入到 pre-commit 阶段。具体来说,一旦 checkpoint 开始,Flink 的 JobManager 向输入流中写入一个 checkpoint barrier ,将流中所有消息分割成属于本次 checkpoint 的消息以及属于下次 checkpoint 的,barrier 也会在操作算子间流转。对于每个 operator 来说,该 barrier 会触发 operator 状态后端为该 operator 状态打快照。data source 保存了 Kafka 的 offset,之后把 checkpoint barrier 传递到后续的 operator。

这种方式仅适用于 operator 仅有它的内部状态。内部状态是指 Flink state backends 保存和管理的内容(如第二个 operator 中 window 聚合算出来的 sum)。

当一个进程仅有它的内部状态的时候,除了在 checkpoint 之前将需要将数据更改写入到 state backend,不需要在预提交阶段做其他的动作。在 checkpoint 成功的时候,Flink 会正确的提交这些写入,在 checkpoint 失败的时候会终止提交,过程可见图 13。

da98128a323c89f94b86f15aae6bb097.png

当结合外部系统的时候,外部系统必须要支持可与两阶段提交协议捆绑使用的事务。显然本例中的 sink 由于引入了 kafka sink,因此在预提交阶段 data sink 必须预提交外部事务。如下图:

b4936b23472381dee3d0c470cd87c5a9.png

当 barrier 在所有的算子中传递一遍,并且触发的快照写入完成,预提交阶段完成。所有的触发状态快照都被视为 checkpoint 的一部分,也可以说 checkpoint 是整个应用程序的状态快照,包括预提交外部状态。出现故障可以从 checkpoint 恢复。下一步就是通知所有的操作算子 checkpoint 成功。该阶段 jobmanager 会为每个 operator 发起 checkpoint 已完成的回调逻辑。

本例中 data source 和窗口操作无外部状态,因此该阶段,这两个算子无需执行任何逻辑,但是 data sink 是有外部状态的,因此,此时我们必须提交外部事务,如下图:

519151054ed28c6b52dbabfcfb9bce37.png

以上就是 flink 实现恰一次处理的基本逻辑。

 

背压

消费者消费的速度低于生产者生产的速度,为了使应用正常,消费者会反馈给生产者来调节生产者生产的速度,以使得消费者需要多少,生产者生产多少。Spark Streaming 的背压Spark Streaming 跟 kafka 结合是存在背压机制的,目标是根据当前 job 的处理情况来调节后续批次的获取 kafka 消息的条数。为了达到这个目的,Spark Streaming 在原有的架构上加入了一个 RateController,利用的算法是 PID,需要的反馈数据是任务处理的结束时间、调度时间、处理时间、消息条数,这些数据是通过 SparkListener 体系获得,然后通过 PIDRateEsimator 的 compute 计算得到一个速率,进而可以计算得到一个 offset,然后跟限速设置最大消费条数比较得到一个最终要消费的消息最大 offset。PIDRateEsimator 的 compute 方法如下:
def compute(        time: Long, // in milliseconds  numElements: Long,        processingDelay: Long, // in milliseconds  schedulingDelay: Long // in milliseconds   ): Option[Double] = {     logTrace(s"\ntime = $time, # records = $numElements, " +     s"processing time = $processingDelay, scheduling delay = $schedulingDelay")         this.synchronized {              if (time > latestTime && numElements > 0 && processingDelay > 0) {                  val delaySinceUpdate = (time - latestTime).toDouble / 1000          val processingRate = numElements.toDouble / processingDelay * 1000         val error = latestRate - processingRate                 val historicalError = schedulingDelay.toDouble * processingRate / batchIntervalMillis                 // in elements/(second ^ 2)         val dError = (error - latestError) / delaySinceUpdate        val newRate = (latestRate - proportional * error - integral * historicalError - derivative * dError).max(minRate)        logTrace(s""" | latestRate = $latestRate, error = $error | latestError = $latestError, historicalError = $historicalError | delaySinceUpdate = $delaySinceUpdate, dError = $dError """.stripMargin)         latestTime = time                 if (firstRun) {            latestRate = processingRate            latestError = 0D            firstRun = false            logTrace("First run, rate estimation skipped")          None        } else {          latestRate = newRate          latestError = error          logTrace(s"New rate = $newRate")                        Some(newRate)       }     } else {       logTrace("Rate estimation skipped")               None     }   } }
Flink 的背压与 Spark Streaming 的背压不同的是,Flink 背压是 jobmanager 针对每一个 task 每 50ms 触发 100 次 Thread.getStackTrace() 调用,求出阻塞的占比。过程如图 16 所示:d1d1d37bfd6dfb3c577c4d9e05b0a3bd.png阻塞占比在 web 上划分了三个等级:OK: 0 <= Ratio <= 0.10,表示状态良好;LOW: 0.10 < Ratio <= 0.5,表示有待观察;HIGH: 0.5 < Ratio <= 1,表示要处理了。 

表管理

flink和structured streaming都可以讲流注册成一张表,然后使用sql进行分析,不过两者之间区别还是有些的。Structured Streaming将流注册成临时表,然后用sql进行查询,操作也是很简单跟静态的dataset/dataframe一样。
df.createOrReplaceTempView("updates")spark.sql("select count(*) from updates")

其实,此处回想Spark Streaming 如何注册临时表呢?在foreachRDD里,讲rdd转换为dataset/dataframe,然后将其注册成临时表,该临时表特点是代表当前批次的数据,而不是全量数据。Structured Streaming注册的临时表就是流表,针对整个实时流的。Sparksession.sql执行结束后,返回的是一个流dataset/dataframe,当然这个很像spark sql的sql文本执行,所以为了区别一个dataframe/dataset是否是流式数据,可以df.isStreaming来判断。

当然,flink也支持直接注册流表,然后写sql分析,sql文本在flink中使用有两种形式:

1). tableEnv.sqlQuery("SELECT product,amount FROM Orders WHERE product LIKE '%Rubber%'")2). tableEnv.sqlUpdate("INSERT INTO RubberOrders SELECT product, amount FROM Orders WHEREproduct LIKE '%Rubber%'");
对于第一种形式,sqlQuery执行结束之后会返回一张表也即是Table对象,然后可以进行后续操作或者直接输出,如:result.writeAsCsv("");。而sqlUpdate是直接将结果输出到了tablesink,所以要首先注册tablesink,方式如下:
TableSink csvSink = newCsvTableSink("/path/to/file", ...);String[] fieldNames = {"product","amount"};TypeInformation[] fieldTypes ={Types.STRING, Types.INT};tableEnv.registerTableSink("RubberOrders",fieldNames, fieldTypes, csvSink);

flink注册表的形式比较多,直接用数据源注册表,如:

tableEnv.registerExternalCatalog();tableEnv.registerTableSource();

也可以从datastream转换成表,如:

tableEnv.registerDataStream("Orders",ds, "user, product, amount");Table table = tableEnv.fromDataStream(ds,"user, product, amount");

作者:hxcaifly

本文整理自:https://blog.csdn.net/hxcaifly/article/details/85916372

并参考了以下连接:

https://blog.csdn.net/hxcaifly/article/details/85054740

https://mp.weixin.qq.com/s/qamHUR8vDbxDOnLcUa4jLw

https://www.cnblogs.com/tuowang/p/9022198.html

欢迎点赞+收藏+转发朋友圈素质三连

1bce6826079ba93565428de367589c8a.png4020e97c4a30d935a4f38ce6fadbfd7b.png

文章不错?点个【在看】吧! ?

http://www.lbrq.cn/news/1311139.html

相关文章:

  • 自定义网站建站公司/搜狗网址
  • 设计网站价格/sem论坛
  • 中小企业网站开发/百度seo手机
  • 怎么建立淘宝客网站/余姚网站seo运营
  • 平定住房建设局网站/软文标题写作技巧
  • 张家口人社app最新下载/城市分站seo
  • wordpress 素材网站模版/六种常见的网络广告类型
  • 什么网站可以做软件有哪些东西/推广赚钱软件排行
  • 济南专业网站推广服务热线/精准引流的网络推广方法
  • 门户网站都在哪推广/武汉网站seo推广公司
  • 怎么做重庆时时彩网站代理/中山做网站推广公司
  • 做网站用笔记本电脑/5118数据分析平台
  • wordpress开源企业主题/天津百度关键词seo
  • 网站建设公司专业/宁波seo行者seo09
  • 网站委托建设运营协议/东莞百度seo电话
  • 产品设计大师作品/天津百度seo推广
  • 美国小卖家做deal网站/青岛网站seo优化
  • 建筑网格布搭接/seo优化工具有哪些
  • 合肥网站建设电话咨询/seo优化怎么做
  • 做网站的技术门槛高吗/出售外链
  • 网站备案审核流程图/长沙岳麓区
  • 做网站用的字体/竞价推广账户托管费用
  • WordPress 爬取插件/贵州快速整站优化
  • 深圳福田华丰大厦网站建设/姓名查询
  • 自己如何做网站推广/资源
  • 做石材的一般用什么网站/怎么自己注册网站
  • 网站建设案例展示/营销型网站建设托管
  • 更换网站需要怎么做/长尾关键词挖掘网站
  • 上海公司转让/seo短视频网页入口引流
  • 网站在谷歌怎么做排名/宁波seo博客
  • API开发提速新方案:SmartBear API Hub与ReadyAPI虚拟化整合实践
  • 【开源软件推荐】 SmartSub,一个可以快速识别视频/音频字幕的工具
  • 阿里云-通义灵码:隐私保护机制—为数据安全筑起铜墙铁壁
  • 时序数据库选型指南 —— 为什么选择 Apache IoTDB?
  • 关于redis各种类型在不同场景下的使用
  • 使用JS编写一个购物车界面