1 Hive安裝部署
1)把a(bǔ)pache-hive-3.1.2-bin.tar.gz上傳到linux的/opt/software目錄下
2)解壓apache-hive-3.1.2-bin.tar.gz到/opt/module/目錄下面
[yobhel@hadoop101 software]$ tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/
3)修改apache-hive-3.1.2-bin.tar.gz的名稱為hive
[yobhel@hadoop101 software]$ mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive
4)修改/etc/profile.d/my_env.sh,添加環(huán)境變量
[yobhel@hadoop101 software]$ sudo vim /etc/profile.d/my_env.sh
添加內(nèi)容
#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin
重啟Xshell對話框或者source一下 /etc/profile.d/my_env.sh文件,使環(huán)境變量生效
[yobhel@hadoop101 software]$ source /etc/profile.d/my_env.sh
5)解決日志Jar包沖突,進(jìn)入/opt/module/hive/lib目錄
[yobhel@hadoop101 lib]$ mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak
2 Hive元數(shù)據(jù)配置到MySQL
2.1 拷貝驅(qū)動
將MySQL的JDBC驅(qū)動拷貝到Hive的lib目錄下
[yobhel@hadoop101 lib]$ cp /opt/software/mysql-connector-java-5.1.27-bin.jar /opt/module/hive/lib/
2.2 配置Metastore到MySQL
在$HIVE_HOME/conf目錄下新建hive-site.xml文件
[yobhel@hadoop101 conf]$ vim hive-site.xml
添加如下內(nèi)容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop101:3306/metastore?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>000000</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>0.0.0.0</value>
</property>
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<!-- 配置命令行通過客戶端直連 hive 時展示查詢表頭 -->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<!-- 配置命令行通過客戶端直連 hive 時可以展示當(dāng)前數(shù)據(jù)庫 -->
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<!-- Hive 的bug,如果沒有配置 HA 則 hiveserver2 啟動時會找 Tez,做無用功,啟動很慢,且出現(xiàn)四個 session_id 才可以通過 jdbc 的方式連接 hive,此處配置 HA 之后啟動耗時縮短且只要出現(xiàn)兩個 session_id 即可連接 -->
<property>
<name>hive.server2.active.passive.ha.enable</name>
<value>true</value>
</property>
<!-- 在 DataGrip 中可以正確加載序列化和反序列化器 SerDe 為
'org.apache.hadoop.hive.serde2.JsonSerDe'
的表的元數(shù)據(jù)信息,點擊表名左側(cè)的三角可以查看表的字段 -->
<property>
<name>metastore.storage.schema.reader.impl</name>
<value>org.apache.hadoop.hive.metastore.SerDeStorageSchemaReader</value>
</property>
<!-- 關(guān)閉 MapJoin 優(yōu)化,hive 的 bug,MapJoin 有時會導(dǎo)致 SQL 執(zhí)行失敗,這里不建議關(guān)閉,因為 MapJoin 是一種優(yōu)化手段,永久關(guān)閉影響性能
應(yīng)在執(zhí)行 SQL 報錯時通過 set hive.auto.convert.join=false 臨時關(guān)閉 MapJoin 功能 -->
<!--
<property>
<name>hive.auto.convert.join</name>
<value>false</value>
</property>
-->
</configuration>
3 啟動Hive
3.1 初始化元數(shù)據(jù)庫
1)登陸MySQL
[yobhel@hadoop101 conf]$ mysql -uroot -p000000
2)新建Hive元數(shù)據(jù)庫
mysql> create database metastore;
mysql> quit;
3)初始化Hive元數(shù)據(jù)庫
[yobhel@hadoop101 conf]$ schematool -initSchema -dbType mysql -verbose
3.2 啟動hive客戶端
1)啟動Hive客戶端
[yobhel@hadoop101 hive]$ hive
2)查看一下數(shù)據(jù)庫
hive (default)> show databases;
OK
database_name
default