云网牛站
所在位置:首页 > Linux云数据库 > 在Ubuntu16.04下安装hive2.3.3数据仓库

在Ubuntu16.04下安装hive2.3.3数据仓库

2018-07-29 21:37:50作者:Lannister_wf稿源:linux网

在Ubuntu16.04系统Hadoop2.7.6下安装hive2.3.3数据仓库。hive必须在Hadoop环境下使用,因此要先安装Hadoop,我已经安装好了Hadoop2.7.6,安装方法可以参考文章下方的相关主题,操作系统是Ubuntu16.04,使用的是在服务器上建立的虚拟机,一主二从结构,主节点8核8G内存,从节点4核4G内存。

 

hive简介

hive是一个数据仓库,可以看做是Hadoop的客户端,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,也可以将sql语句转换为MapReduce任务进行运行。要注意的是,hive并不是一个数据库,也不存储实际数据,实际数据都存储在hdfs中,hive只是简化了对数据的操作。

 

1.下载hive安装包并配置环境变量

这里下载hive版本apache-hive-2.3.3-bin.tar.gz,最新版本是hive 3.0.0(如果是安装该版本,下方的解压改成tar -zxvf apache-hive-3.0.0-bin.tar.gz),你也可以安装该版本,方法是一样的。下载完成后解压,重命名为hive,并剪切到/usr/local目录下。

1].解压

tar -zxvf apache-hive-2.3.3-bin.tar.gz

2].重命名

mv apache-hive-2.3.3-bin hive

3].移动

mv hive /usr/local

4].配置环境变量

vim /root/.bashrc

5].增加

HIVE

export HIVE_HOME=/usr/local/hive

export PATH=PATH:PATH:PATH:HIVE_HOME/bin

6].使配置生效

source ~/.bashrc

 

2.安装MySQL

虽然hive并不存储实际的业务数据,但是hive要管理hdfs中的数据就要对这些数据建立一些类似于索引、映射的玩意,以便于hive识别哪个数据在哪一块,这些映射的数据成为元数据(metadata)。hive中自带的存储元数据的关系型数据库是Derby,但是这个数据库极其不稳定,因此安装MySQL来代替Derby存储元数据。在Ubuntu上安装MySQL十分简单。

1].安装,在安装过程中会提示输入root密码

apt-get install mysql-server

2].配置MySQL

mysql_secure_installation

3].测试

mysql -u root -p

在mysql命令行下输入show databases;应该会看到如图所示的内容。

在Ubuntu16.04下安装hive2.3.3数据仓库

 

3.配置hive

1].将/conf文件夹下的hive-default.xml.template 改为 hive-default.xml,将hive-env.sh.template改为hive-env.sh

cp hive-default.xml.template hive-default.xml

cp hive-env.sh.template hive-env.sh

2].修改hive环境文件hive-env.sh,在其中按实际情况添加以下三句话:

<1>.Hadoop的位置:

export HADOOP_HOME=/usr/local/hadoop

<2>.hive的conf目录位置:

export HIVE_CONF_DIR=/usr/local/hive/conf

<3>.hive的lib目录位置:

export HIVE_AUX_JARS_PATH=/usr/local/hive/lib

3].你要是开心也可以添加jdk的安装目录。下面修改配置文件hive-env.sh,主要是和MySQL有关的四项。

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>

<description>JDBC connect string for a JDBC metastore</description>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

<description>Driver class name for a JDBC metastore</description>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

<description>username to use against metastore database</description>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>root</value>

<description>password to use against metastore database</description>

</property>

4].以上四项顾名思义分别是MySQL的URL地址、MySQL驱动的名字、MySQL的用户名、MySQL的密码。然后要修复一些隐藏的坑。在hive下新建一个文件夹tmp,然后在hive-site.xml中增加下面配置。没有这个配置在启动hive时会报错。

<property>

<name>system:java.io.tmpdir</name>

<value>/usr/local/hive/tmp</value>

</property>

<property>

<name>system:user.name</name>

<value>root</value>

</property>

 

4.相关且必须的工作

下载一个mysql的连接jdbc jar包到hive的lib目录下,下载地址

在hdfs上建立一些hive-site.xml中配置的仓库地址并授权

bin/hadoop fs -mkdir -p /user/hive/warehouse

bin/hadoop fs -mkdir -p /user/hive/tmp

bin/hadoop fs -mkdir -p /user/hive/log

bin/hadoop fs -chmod -R 777 /user/hive/warehouse

bin/hadoop fs -chmod -R 777 /user/hive/tmp

bin/hadoop fs -chmod -R 777 /user/hive/log

 

5.初始化

在hive的bin目录下

schematool -initSchma -dbType mysql

如果执行不报错,会显示completed,此时查看MySQL的数据库会多出来一个hive,hive数据库中会有很多表,这些就是hive初始化的表。

 

6.启动hive

必须要先启动Hadoop且没有错误,在hive/bin目录中输入hive,就会进入hive命令行,输入show databases;没有抛出异常说明hive安装成功并且成功启动。

在Ubuntu16.04下安装hive2.3.3数据仓库

在Ubuntu16.04下安装hive2.3.3数据仓库

 

相关主题

Ubuntu18.04系统中编译hadoop2.7.6支持snappy

精选文章
热门文章