HiveServer2支持多客户端的并发和认证,为开放API客户端如JDBC、ODBC提供了更好的支持。
(1)修改hive-site.xml,在文件中添加以下内容:
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<property>
<description>HiveServer2 Thrift接口的端口号</description>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<description>运行HiveServer2 Thrift接口的主机</description>
<name>hive.server2.thrift.bind.host</name>
<value>master</value>
</property>
<property>
<name>hive.server2.enable.doAs</name>
<value>false</value>
</property>
(2)修改/home/software/hadoop/etc/hadoop/core-site.xml,增加如下内容:
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
(3)将core-site.xml配置文件使用scp命令发送给各子节点
scp -r /home/software/hadoop/etc/hadoop/core-site.xml root@slave01:/home/software/hadoop/etc/hadoop/
scp -r /home/software/hadoop/etc/hadoop/core-site.xml root@slave02:/home/software/hadoop/etc/hadoop/
scp -r /home/software/hadoop/etc/hadoop/core-site.xml root@slave03:/home/software/hadoop/etc/hadoop/
(4)一定要在启动Hadoop集群、MySQL服务、Hive元数据库服务后,最后再启动Hive远程服务
--启动Hadoop集群
/home/softare/hadoop/sbin/start-all.sh
/home/softare/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver
--启动MySQL服务
service mysqld start
--后台启动Hive元数据服务
nohup hive --service metastore &
--后台启动hiveserver2服务
nohup hive --service hiveserver2 &
5)验证是否成功开启远程服务