HDFS_DELEGATION_TOKEN 還原及解決方案

HDFS_DELEGATION_TOKEN 這個(gè)BUG在很多文章中都出現(xiàn)著,講了很多原理,但是只給出了官方引用地扯,完全沒(méi)有給出如何解決,我們線上的業(yè)務(wù)就有著這樣的問(wèn)題,7天一到馬上出現(xiàn)這問(wèn)題了,官方明明說(shuō)這個(gè)bug修復(fù)了呀,因?yàn)槲覀兪褂玫陌姹臼潜容^新的,理論上不會(huì)有這樣的問(wèn)題才對(duì),可是偏偏就有了,沒(méi)辦法,只能硬上了,花了兩天的時(shí)間找到了解決這個(gè)問(wèn)題的辦法,下面會(huì)還原這個(gè)錯(cuò)誤及給出解決方案。

版本列表

測(cè)試用例配置

添加 hdfs-site.xml 配置

dfs.namenode.delegation.key.update-interval=60000 #1分鐘
dfs.namenode.delegation.token.max-lifetime=180000 #3分鐘
dfs.namenode.delegation.token.renew-interval=60000 #1分鐘

修改 /etc/krb5.conf ticket過(guò)期為1小時(shí)

...
ticket_lifetime = 1h
...

代碼內(nèi)有kerberos認(rèn)證

class App {
  System.setProperty("java.security.krb5.conf", "/etc/krb5.conf")
  System.setProperty("sun.security.krb5.debug", "false")
  val hConf = new Configuration
  hConf.addResource("hbase-site.xml")
  UserGroupInformation.setConfiguration(hConf)
  UserGroupInformation.loginUserFromKeytab("hbase-bd@EXAMPLE.COM", "/etc/security/keytabs/hbase.headless.keytab")

  val sparkConf = new SparkConf()
    //      .setMaster("local[12]")
    .setAppName("HDFS_DELEGATION_TOKEN")
  val spark = SparkSession
    .builder
    .config(sparkConf)
    .getOrCreate()
  hConf.set("hbase.mapreduce.inputtable", "test_log")
  def run(args: Array[String]): Unit = {
    val sc = spark.sparkContext
    import spark.implicits._

    val userRDD: RDD[Log] = sc.newAPIHadoopRDD(
      hConf,
      classOf[TableInputFormat],
      classOf[ImmutableBytesWritable],
      classOf[Result]
    ).flatMap {
      rdd => {
        val map = HbaseUtil.result2Map(rdd._2)
        val log = Log(
          map.get("uid")
        )
        Array(log)
      }
    }

    userRDD.toDS().cache().createTempView("log")

    spark.sql(
      """select * from log""".stripMargin)
      .show(false)

    spark.catalog.dropTempView("log")
    userRDD.unpersist()
  }
}
case class Log(uid: String)
object App {
  def main(args: Array[String]): Unit = {
    val app = new App()
    while (true) {
      app.run(args)
      TimeUnit.MINUTES.sleep(3)
    }
  }
}

測(cè)試百度跟谷歌中最最最多出現(xiàn)的解決方案

 --conf spark.hadoop.fs.hdfs.impl.disable.cache=true
 --conf mapreduce.job.complete.cancel.delegation.tokens=false
  1. 測(cè)試提交
spark-submit --master yarn \
 --class com.dounine.hbase.App \
 --executor-memory 1g \
 --driver-memory 1g \
 --keytab /etc/security/keytabs/hbase.headless.keytab \
 --principal hbase-bd@EXAMPLE.COM \
 build/libs/hdfs-token-1.0.0-SNAPSHOT-all.jar
  1. 測(cè)試提交
...
 --conf spark.hadoop.fs.hdfs.impl.disable.cache=true \
 --conf mapreduce.job.complete.cancel.delegation.tokens=false \
...
  1. 測(cè)試提交
...
 --conf mapreduce.job.complete.cancel.delegation.tokens=false \
...
  1. 測(cè)試提交
...
 --conf spark.hadoop.fs.hdfs.impl.disable.cache=true \
...

1,2,3,4 測(cè)試結(jié)果
時(shí)間觀察3分鐘 => 正常
時(shí)間觀察10分鐘 => 正常
時(shí)間觀察30分鐘 => 正常
時(shí)間觀察60分鐘 => 正常
時(shí)間觀察120分鐘 => 正常
測(cè)試結(jié)論 => 與1、2、3、4 --conf 配置無(wú)關(guān)

好吧,我已經(jīng)懷疑人生、可能是我打開(kāi)的方式不對(duì)

繼續(xù)測(cè)試

將認(rèn)證代碼放入run方法內(nèi)

def run(args: Array[String]): Unit = {
  System.setProperty("java.security.krb5.conf", "/etc/krb5.conf")
  System.setProperty("sun.security.krb5.debug", "false")
  val hConf = new Configuration
  hConf.addResource("hbase-site.xml")
  UserGroupInformation.setConfiguration(hConf)
  UserGroupInformation.loginUserFromKeytab("hbase-bd@EXAMPLE.COM", "/etc/security/keytabs/hbase.headless.keytab")

  val sparkConf = new SparkConf()
    //      .setMaster("local[12]")
    .setAppName("HDFS_DELEGATION_TOKEN")
  val spark = SparkSession
    .builder
    .config(sparkConf)
    .getOrCreate()

  hConf.set("hbase.mapreduce.inputtable", "test_log")
....

時(shí)間觀察3分鐘 => 正常
時(shí)間觀察6分鐘 => 異常

18/12/29 16:50:31 ERROR AsyncEventQueue: Listener EventLoggingListener threw an exception
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager$InvalidToken): token (token for hbase: HDFS_DELEGATION_TOKEN owner
=hbase-bd@EXAMPLE.COM, renewer=yarn, realUser=, issueDate=1546072104965, maxDate=1546072704965, sequenceNumber=15985, masterKeyId=748) is expired, curr
ent time: 2018-12-29 16:32:29,829+0800 expected renewal time: 2018-12-29 16:31:24,965+0800
        at org.apache.hadoop.ipc.Client.getRpcResponse(Client.java:1497)
        at org.apache.hadoop.ipc.Client.call(Client.java:1443)
        at org.apache.hadoop.ipc.Client.call(Client.java:1353)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:228)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:116)
        at com.sun.proxy.$Proxy11.fsync(Unknown Source)
        at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.fsync(ClientNamenodeProtocolTranslatorPB.java:980)
        at sun.reflect.GeneratedMethodAccessor11.invoke(Unknown Source)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:498)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:422)
        at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeMethod(RetryInvocationHandler.java:165)
        at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invoke(RetryInvocationHandler.java:157)
        at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeOnce(RetryInvocationHandler.java:95)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359)
        at com.sun.proxy.$Proxy12.fsync(Unknown Source)
...

問(wèn)題發(fā)現(xiàn)

通過(guò)幾十遍不斷的調(diào)整位置、最終確認(rèn)的問(wèn)題所在
還有Exector的問(wèn)題

UserGroupInformation.setConfiguration(hConf)
UserGroupInformation.loginUserFromKeytab("hbase-bd@EXAMPLE.COM", "/etc/security/keytabs/hbase.headless.keytab")

是由于以上兩句kerberos認(rèn)證代碼導(dǎo)致的結(jié)果
跟下面的配置沖突了

--principal $principal --keytab $keytab

解決方案(一)

刪除掉下面代碼中的這兩句認(rèn)證即可,使用--principal $principal --keytab $keytab

UserGroupInformation.setConfiguration(hConf)
UserGroupInformation.loginUserFromKeytab("hbase-bd@EXAMPLE.COM", "/etc/security/keytabs/hbase.headless.keytab")

因?yàn)镾park的--principal --keytab會(huì)在令牌即將過(guò)期的時(shí)候幫我們重新續(xù)定,如果代碼里面加上之后,Spark會(huì)讀取到ApplicationMaster中用戶已經(jīng)認(rèn)證了,沒(méi)有過(guò)期是不會(huì)續(xù)定NodeManager中的Exector的。
如果是開(kāi)發(fā)環(huán)境模式,可以加一個(gè)判斷使用以上兩句代碼,簡(jiǎn)單粗暴

解決方案(二)

使用UserGroupInformation的進(jìn)程認(rèn)證方式

spark.sparkContext
      .parallelize(0 to 1000)
      .repartition(10)
      .foreachPartition {
        iter => {
          val hConf = new Configuration
          hConf.addResource("hbase-site.xml")
          val ugi = UserGroupInformation.loginUserFromKeytabAndReturnUGI("hbase-bd@EXAMPLE.COM", "/etc/security/keytabs/hbase.headless.keytab")
          ugi.doAs(new PrivilegedAction[Unit] {//在每個(gè)Partition認(rèn)證
            override def run(): Unit = {
              val logDir = new Path(args(0))
              val fs = FileSystem.get(hConf)
              if (!fs.exists(logDir)) throw new Exception(logDir.toUri.getPath + " director not exist.")

              while (iter.hasNext) {
                iter.next()
                val logPaths = fs.listFiles(logDir, false)
                TimeUnit.MILLISECONDS.sleep(10)
              }
            }
          })
        }
      }

BUG 7 天后再次出現(xiàn)

上面推導(dǎo)還是有問(wèn)題,還有望知道BUG解決的小伙伴告知一下。

臨時(shí)解決方案

就是加大過(guò)期的時(shí)間


?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容