Apache Flink 1.7 中文官方文件 GitBook 大公開
微信公眾號: 深廣大資料Club
關注可瞭解更多大資料相關的諮詢。有問題或建議,請公眾號留言;
如果你覺得深廣大資料Club對你有幫助,歡迎轉發朋友圈分享
宣告
大家好,最近一段時間沒有更新公眾號,還請大家見諒!
現在給大家帶來一個好訊息,我將公開近期我一直在努力翻譯的Apache Flink中文官方文件的GitBook,希望能幫助大家一起學習Flink,一起提升!
本文件由我個人耗費2個月時間翻譯,個人英語能力有限,有翻譯不好的地方希望大夥多加指正。謝謝!!!
Flink介紹
Apache Flink是一個面向資料流處理和批量資料處理的可分散式的開源計算框架,它基於同一個Flink流式執行模型(streaming execution model),能夠支援流處理和批處理兩種應用型別。由於流處理和批處理所提供的SLA(服務等級協議)是完全不相同, 流處理一般需要支援低延遲、Exactly-once保證,而批處理需要支援高吞吐、高效處理,所以在實現的時候通常是分別給出兩套實現方法,或者通過一個獨立的開源框架來實現其中每一種處理方案。比較典型的有:實現批處理的開源方案有MapReduce、Spark;實現流處理的開源方案有Storm;Spark的Streaming 其實本質上也是微批處理。
Flink在實現流處理和批處理時,與傳統的一些方案完全不同,它從另一個視角看待流處理和批處理,將二者統一起來:Flink是完全支援流處理,也就是說作為流處理看待時輸入資料流是無界的;批處理被作為一種特殊的流處理,只是它的輸入資料流被定義為有界的。
Flink相關諮詢
阿里巴巴為什麼選擇Apache Flink?
https://102.alibaba.com/detail?id=194
阿里巴巴收購德國資料處理公司data Artisans
http://finance.sina.com.cn/stock/usstock/c/2019-01-08/doc-ihqhqcis4132107.shtml
阿里重磅開源Blink:為什麼我們等了這麼久?
https://www.datanami.com/2019/01/08/alibaba-acquires-apache-flink-backer-data-artisans/
官宣!阿里Blink和Flink合併計劃出爐
https://www.ververica.com/blog/batch-as-a-special-case-of-streaming-and-alibabas-contribution-of-blink
Flink原始碼解析文章
Flink原始碼解析 | 從Example出發理解Flink-Flink啟動
Flink原始碼解析 | 從Example出發:讀懂本地任務執行流程
Flink原始碼解析 | 從Example出發:讀懂叢集任務執行流程
Flink原始碼解析 | 從Example出發:讀懂Flink On Yarn任務執行流程
Flink原始碼解析 | 從Example出發:讀懂start-start-shell.sh任務執行流程
Flink原始碼解析 | 從Example出發:理解StreamGraph的生成過程
Flink原始碼解析 | 從Example出發:理解JobGraph的生成過程
如何獲取Flink中文文件GitBook地址
說了半天,那怎麼獲取Flink中文官方文件GitBook地址呢?
方法很簡單:
1、掃描以下微信公眾號二維碼,關注公眾號。
2、傳送“Flink GitBook中文文件”即可獲取Flink 1.7的中文官方文件的Gitbook地址。
公眾號還有其他的技術資源提供,包括大資料相關的資料,視訊等等。
(翻譯不易,希望大夥關注下本公眾號,算是對我的支援!謝謝大家!)
想了想還是把地址直接貼進來了:
https://flink-docs-cn.gitbook.io/project/
推薦公眾號
想了解HBase技術可關注以下公眾號