Spark訪問與Hbase關(guān)聯(lián)的Hive表需要引用jar 包 hive-hbase-handler-<version>.jar
不然要報錯
MetaException(message:java.lang.ClassNotFoundException Class \
org.apache.hadoop.hive.hbase.HBaseSerDe not found)
通過hive操作hbae,當(dāng)然spark也可以直接操作hbase, 這里使用spark通過hive訪問hbase,有點(diǎn)繞