“Slave1上安装hive”的版本间的差异
来自CloudWiki
201708010242(讨论 | 贡献) (→修改 hive-site.xml) |
201708010242(讨论 | 贡献) |
||
第1行: | 第1行: | ||
+ | |||
+ | == hive在hadoop中的位置 == | ||
+ | |||
+ | [[文件:QQ截图20181119102043.png]] | ||
== 解压hive文件 == | == 解压hive文件 == |
2018年11月19日 (一) 10:22的版本
目录
hive在hadoop中的位置
解压hive文件
.
修改/etc/profile 文件
首先我们需要创建工作路径,并将 hive 解压。环境中 master 作为客 户端,slave1 作为服务器端,因此都需要使用到 hive。因为 hive 相关安装包存 放在 master 中,因此我们先在 master 中对 hive 进行解压,然后将其复制到 slave1 中。
- set hive
export HIVE_HOME=/usr/hive/apache-hive-2.1.1-bin
export PATH=$PATH:$HIVE_HOME/bin
拷贝Mysql 的 lib 安装包
shell远程连slave2 把mysql-connector-java-5.1.5-bin.jar考到slave1 的 hive 的 lib 中
修改 hive-env.sh
回到 slave1,修改 hive-env.sh 中 HADOOP_HOME 环境变量
修改 hive-site.xml
删除全部内容,添加以下内容
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive_remote/warehouse</value> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://slave2:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123456</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>false</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>true</value> </property> </configuration>
启动hive服务
进入hive的目录,在hive的目录下输入
bin/hive --service metastore