SparkStreaming整合Kafka過程詳解

Spark Streaming連接kafka 的兩種方式

Receiver based Approah

  • KafkaUtils.createDstream基於接收器方式,消費Kafka數據,已淘汰
  • Receiver作為Task運行在Executor等待數據,一個Receiver效率低,需要開啟多個,再手動合並數據,很麻煩
  • Receiver掛瞭,可能丟失數據,需要開啟WAL(預寫日志)保證數據安全,效率低
  • 通過Zookeeper來連接kafka,offset存儲再zookeeper中
  • spark消費的時候為瞭保證數據不丟也會保存一份offset,可能出現數據不一致

Direct Approach

  • KafkaUtils.createDirectStream直連方式,streaming中每個批次的job直接調用Simple Consumer API獲取對應Topic數據
  • Direct方式直接連接kafka分區獲取數據,提高瞭並行能力
  • Direct方式調用kafka低階API,offset自己存儲和維護,默認由spark維護在checkpoint中
  • offset也可以自己手動維護,保存在mysql/redis中
// 從kafka加載數據
val kafkaParams = Map[String, Object](
  "bootstrap.servers" -> "hadoop102:9092",//kafka集群地址
  "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則
  "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則
  "group.id" -> "sparkdemo",//消費者組名稱
  //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的消息開始消費
  //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的消息開始消費
  //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯
  "auto.offset.reset" -> "latest",
  "auto.commit.interval.ms"->"1000",//自動提交的時間間隔
  "enable.auto.commit" -> (true: java.lang.Boolean)//是否自動提交
)
val topics = Array("spark_kafka")//要訂閱的主題
//使用工具類從Kafka中消費消息
val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String](
  ssc,
  LocationStrategies.PreferConsistent, //位置策略,使用源碼中推薦的
  ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用源碼中推薦的
)

代碼展示

自動提交偏移量

object kafka_Demo01 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[*]").setAppName("kafka_Demo01")
    val sc = new SparkContext(conf)
    val ssc = new StreamingContext(sc, Seconds(5))
    ssc.checkpoint("data/ckp")
    // 從kafka加載數據
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092",//kafka集群地址
      "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則
      "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則
      "group.id" -> "sparkdemo",//消費者組名稱
      //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的消息開始消費
      //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的消息開始消費
      //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯
      "auto.offset.reset" -> "latest",
      "auto.commit.interval.ms"->"1000",//自動提交的時間間隔
      "enable.auto.commit" -> (true: java.lang.Boolean)//是否自動提交
    )
    val topics = Array("spark_kafka")//要訂閱的主題
    //使用工具類從Kafka中消費消息
    val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String](
      ssc,
      LocationStrategies.PreferConsistent, //位置策略,使用源碼中推薦的
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用源碼中推薦的
    )
    // 處理消息
    val infoDS = kafkaDS.map(record => {
      val topic = record.topic()
      val partition = record.partition()
      val offset = record.offset()
      val key = record.key()
      val value = record.value()
      val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}"""
      info
    })
    // 輸出
    infoDS.print()
    ssc.start()
    ssc.awaitTermination()
    ssc.stop(true, true)
  }
}

手動提交

提交代碼

// 處理消息
//註意提交的時機:應該是消費完一小批就該提交一次offset,而在DStream一小批的體現是RDD
kafkaDS.foreachRDD(rdd => {
  rdd.foreach(record => {
    val topic = record.topic()
    val partition = record.partition()
    val offset = record.offset()
    val key = record.key()
    val value = record.value()
    val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}"""
    info
    println("消費" + info)
  })
  //獲取rdd中offset相關的信息:offsetRanges裡面就包含瞭該批次各個分區的offset信息
  val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
  //提交
  kafkaDS.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges)
  println("當前批次的數據已消費並手動提交")
})

完整代碼

object kafka_Demo02 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[*]").setAppName("kafka_Demo01")
    val sc = new SparkContext(conf)
    val ssc = new StreamingContext(sc, Seconds(5))
    ssc.checkpoint("data/ckp")
    // 從kafka加載數據
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092",//kafka集群地址
      "key.deserializer" -> classOf[StringDeserializer],//key的反序列化規則
      "value.deserializer" -> classOf[StringDeserializer],//value的反序列化規則
      "group.id" -> "sparkdemo",//消費者組名稱
      //earliest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最早的消息開始消費
      //latest:表示如果有offset記錄從offset記錄開始消費,如果沒有從最後/最新的消息開始消費
      //none:表示如果有offset記錄從offset記錄開始消費,如果沒有就報錯
      "auto.offset.reset" -> "latest",
//      "auto.commit.interval.ms"->"1000",//自動提交的時間間隔
      "enable.auto.commit" -> (false: java.lang.Boolean)//是否自動提交
    )
    val topics = Array("spark_kafka")//要訂閱的主題
    //使用工具類從Kafka中消費消息
    val kafkaDS: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String](
      ssc,
      LocationStrategies.PreferConsistent, //位置策略,使用源碼中推薦的
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) //消費策略,使用源碼中推薦的
    )
    // 處理消息
    //註意提交的時機:應該是消費完一小批就該提交一次offset,而在DStream一小批的體現是RDD
    kafkaDS.foreachRDD(rdd => {
      rdd.foreach(record => {
        val topic = record.topic()
        val partition = record.partition()
        val offset = record.offset()
        val key = record.key()
        val value = record.value()
        val info: String = s"""topic:${topic}, partition:${partition}, offset:${offset}, key:${key}, value:${value}"""
        info
        println("消費" + info)
      })
      //獲取rdd中offset相關的信息:offsetRanges裡面就包含瞭該批次各個分區的offset信息
      val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
      //提交
      kafkaDS.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges)
      println("當前批次的數據已消費並手動提交")
    })
    // 輸出
    kafkaDS.print()
    ssc.start()
    ssc.awaitTermination()
    ssc.stop(true, true)
  }
}

到此這篇關於SparkStreaming整合Kafka過程詳解的文章就介紹到這瞭,更多相關SparkStreaming整合Kafka內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: