[Kafka]整合到Spark Streaming

整合Kafka到Spark Streaming——代碼示例和挑戰(zhàn) - stark_summer的專欄 - 博客頻道 - CSDN.NET
http://blog.csdn.net/stark_summer/article/details/44038247
作為一個實時大數(shù)據(jù)處理工具, Spark Sreaming 近日一直被廣泛關(guān)注,與 Apache Storm 的對比也經(jīng)常出現(xiàn)。但是依我說,缺少與Kafka整合,任何實時大數(shù)據(jù)處理工具都是不完整的,因此我將一個示例Spark Streaming應(yīng)用程序添加到 kafka-storm-starter ,并且示范如何從Kafka讀取,以及如何寫入到Kafka。在這個過程中,我還使用Avro作為數(shù)據(jù)格式,以及Twitter Bijection進(jìn)行數(shù)據(jù)序列化。

在任何Spark應(yīng)用程序中,一旦某個Spark Streaming應(yīng)用程序接收到輸入數(shù)據(jù),其他處理都與非streaming應(yīng)用程序相同。也就是說,與普通的Spark數(shù)據(jù)流應(yīng)用程序一樣,在Spark Streaming應(yīng)用程序中,你將使用相同的工具和模式。更多詳情可見Level of Parallelism in Data Processing 文檔。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容