Slave1上安装hive

来自CloudWiki
跳转至: 导航搜索

hive在hadoop中的位置

QQ截图20181119102043.png

解压hive文件

.

修改/etc/profile 文件

首先我们需要创建工作路径,并将 hive 解压。环境中 master 作为客 户端,slave1 作为服务器端,因此都需要使用到 hive。因为 hive 相关安装包存 放在 master 中,因此我们先在 master 中对 hive 进行解压,然后将其复制到 slave1 中。


#set hive

export HIVE_HOME=/usr/hive/apache-hive-2.1.1-bin 

export PATH=$PATH:$HIVE_HOME/bin

拷贝Mysql 的 lib 安装包

shell远程连slave2 把mysql-connector-java-5.1.5-bin.jar考到slave1 的 hive 的 lib 中


修改 hive-env.sh

回到 slave1,修改 hive-env.sh 中 HADOOP_HOME 环境变量

HADOOP_HOME=/usr/hadoop/hadoop-2.7.3

修改 hive-site.xml

删除全部内容,添加以下内容


<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
	<property>
		<name>hive.metastore.warehouse.dir</name>
		<value>/user/hive_remote/warehouse</value>
	</property>
	<property>
  	<name>javax.jdo.option.ConnectionURL</name>
  	<value>jdbc:mysql://slave2:3306/hive?createDatabaseIfNotExist=true</value>
	</property>
	<property>
	  <name>javax.jdo.option.ConnectionDriverName</name>
	  <value>com.mysql.jdbc.Driver</value>
	</property>
	<property>
	  <name>javax.jdo.option.ConnectionUserName</name>
	  <value>root</value>
	</property>
	<property>
	  <name>javax.jdo.option.ConnectionPassword</name>
	  <value>123456</value>
	</property>
	<property>
	  <name>hive.metastore.schema.verification</name>
	    <value>false</value>
	</property>
	<property>
		<name>datanucleus.schema.autoCreateAll</name>
		<value>true</value>
	</property>
</configuration>

启动hive服务

进入hive的目录,在hive的目录下输入

bin/hive --service metastore

启动hive服务.png