最新实例
Credit漫谈:5天掌握高级项目经理技能
TaskManager 任务执行 3.3.1 TaskManager 组件解析 3.3.2 深入剖析 Task 执行机制 3.3.2.1 Task 对象生成 3.3.2.2 Task 对象运行机制 3.3.2.3 StreamTask 执行逻辑解析 3.4 StreamTask 与 StreamOperator 协同工作原理 4. StreamOperator 抽象与实现 4.1 数据源逻辑:StreamSource 与时间模型 4.2 从数据输入到处理:OneInputStreamOperator & AbstractUdfStreamOperator 4.3 StreamSink 解析 4.4 其他算子 5. 为执行保驾护航:Fault Tolerant 与 Exactly-Once 语义 5.1 Fault Tolerant 演进历程 5.1.1 Storm 的 Record acknowledgement 模式 5.1.2 Spark streaming 的 micro batch 模式 5.1.3 Google Cloud Dataflow 的事务式模型 5.1.4 Flink 的分布式快照机制 5.2 checkpoint 生命周期详解 5.2.1 触发 checkpoint 机制 5.2.2 Task 层面 checkpoint 的准备工作 5.2.3 操作符状态保存及 barrier 传递 5.3 承载 checkpoint 数据的抽象:State & StateBackend 6. 数据流转:Flink 数据抽象及数据交换过程 6.1 Flink 数据抽象 6.1.1 MemorySegment 6.1.2 ByteBuffer 与 NetworkBufferPool 6.1.3 RecordWriter 与 Record 6.2 数据流转过程 6.2.1 整体流程解析 6.2.2 数据跨 task 传递机制 6.3 Credit 漫谈
flink-connector-hive_2.12-1.12.0.jar 文件解析
flink-connector-hive_2.12-1.12.0.jar 文件是 Apache Flink 用于连接 Hive 数据源的连接器。 文件名的组成部分解析如下:* flink-connector-hive:表示这是一个 Flink 连接器,用于连接 Hive。* 2.12:表示该连接器兼容的 Scala 版本为 2.12。* 1.12.0:表示该连接器的版本号为 1.12.0。* .jar:表示这是一个 Java 归档文件(JAR 文件)。
Flink 系列指南
使用说明 教程实战 配置详解 文档资料 代码示例
Flink1.8实战:构建电商实时运营分析系统
本课程以真实电商公司运营实时分析系统(2B)为蓝本,深度解析Flink DataStream。通过项目实战,您将获得Flink企业级项目经验,深入掌握Flink DataStream核心理论,从而快速、高效地学习Flink技术。
Flink:构建下一代大数据处理引擎
阿里内部技术分享系列之六:Flink 数据趋势 业界案例 阿里思考 Flink@阿里
征服 Apache Flink 十大技术挑战
这份实战指南深入探讨 Apache Flink 十大技术难点,提供解决方案和优化策略,助力您构建高效、可靠的流式数据处理应用。
Flink SQL Demo 测试数据 Part1
提供用于 Flink SQL Demo 的测试数据,包含部分测试数据。
Sublime Text 2.jar 文件
Sublime Text 2.jar 文件是一个与 Sublime Text 2 编辑器相关的 Java 归档文件。
Flink Oracle CDC Connector 2.3.0
Flink CDC Connector for Oracle 2.3.0
Flink开发环境配置
在Flink项目开发中,pom.xml和settings.xml的配置至关重要。pom.xml用于管理项目依赖,包括Flink核心库和其他必要组件。settings.xml则负责配置Maven仓库,确保项目能够正确获取依赖。