hadoop大数据平台手动搭建(三)-hive

来源:互联网 发布:网络安全教育观后感 编辑:程序博客网 时间:2024/05/02 07:08

hive的安装。hive只是作为hadoop客户端,我安装在master节点上。

1. 安装元数据库。默认的数据库为Derby. 生产中我们通常用其他数据库。因Derby只支持同时一个用户访问Hive. 下面用mysql来存储元数据。

  • yum install mysql
  • yum install mysql-server
  • yum install mysql-devel

   查看mysql状态,启动停止

  • service mysqld status|start|stop

   创建数据库

  create database hive;

 

认证hadoop用户(操作系统用户)可操作hive所有表。

 

grant all on hive.* to hadoop@'master' identified by '123456';

flush privileges;

2. 修改Hive配置文件

 

tar -zxvf /opt//opt/hive-1.1.0-cdh5.8.0.tar.gz

 

修改conf下hive-site.xml

 

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

  <name>javax.jdo.option.ConnectionURL</name>

  <value>jdbc:mysql://master:3306/hive</value>

</property>

<property>

  <name>javax.jdo.option.ConnectionDriverName</name>

  <value>com.mysql.jdbc.Driver</value>

</property>

<property>

  <name>javax.jdo.option.ConnectionUserName</name>

  <value>hadoop</value>

  <description>username to use against metastore database</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionPassword</name>

  <value>123456</value>

</property>

</configuration>

/etc/profile中加入环境变量

export HIVE_HOME=/opt/hive-1.1.0-cdh5.8.0

export PATH=$PATH:$HIVE_HOME/bin

然后执行命令

source /etc/profile

 

3.启动mysql,hadoop

  最好执行beeline(代替了hive命令,后续版本中)功能更强大。

hive查hive默认库中的表



 

 

beeline查元数据库中的表.连接之前必须启动./hiveserver2.sh

 

beeline查hive库中的表

 

 

 

 

  • 大小: 86.7 KB
  • 大小: 94.2 KB
  • 大小: 116.4 KB
  • 查看图片附件
0 0
原创粉丝点击