sqoop

来源:互联网 发布:手机淘宝退款售后 删除 编辑:程序博客网 时间:2024/05/17 02:27

sqoop安装:安装在一台节点上就可以了。

用于hadoop和传统数据库之间的收据传递!(可以直接导入hdfs  hive  hbase)

1 mysql 数据导入hive表中(用sqoop)
    1 创建hive表
    crate table trade_detail(id bignit,account string,income double,expenses double,times string) row format delimited fields terminated by '\t';

    crate table user_info (id bignit,account string,name string,age int) row format delimited fields terminated by '\t';

    2 mysql 数据导入hive表中(用sqoop)
      将mysq当中的数据直接导入到hive当中
              sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 --table trade_detail --hive-import --hive-overwrite --hive-table trade_detail --fields-terminated-by '\t'
    3 hive 添加环境变量中
     /itcast/apache-hive-0.13.0-bin/bin
    [root@hadoop03 bin]# vim /etc/profile
    [root@hadoop03 bin]# source /etc/profile
    [root@hadoop03 bin]# which hive

==============


=======================================

1.上传sqoop

2.安装和配置

    在添加sqoop到环境变量

添加sqoop2到系统环境变量中:

export SQOOP2_HOME=/home/spark/app/sqoop2-1.99.3-cdh5.0.0export CATALINA_BASE=$SQOOP2_HOME/serverexport PATH=.:$SQOOP2_HOME/bin:$PATH

    将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
    第一类:数据库中的数据导入到HDFS上
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --columns 'id, account, income, expenses'
        
        指定输出路径、指定数据分隔符
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td' --fields-terminated-by '\t'
        
        指定Map数量 -m
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

        增加where条件, 注意:条件必须用引号引起来
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2'

        增加query语句(使用 \ 将语句换行)
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 \
--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'
        
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
        
    第二类:将HDFS上的数据导出到数据库中
        sqoop export --connect jdbc:mysql://192.168.8.120:3306/itcast --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-termianted-by '\t'
    
4.配置mysql远程连接
    GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES;
    
    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES
    

====================================

sqoop安装:安装在一台节点上就可以了。

1.上传sqoop
   tar -zxvf   -C /itcast
   echo $HADOOP_HOME
启动:sqoop
cd ./bin
导入数据
./sqoop import --connect jdbc:mysql://192.168.8.100:3306/djk --username root --password root --table bh_auth_user_main

//放mysql jar包
cp /root/mysql-connector-5.1.8.jar /itcast/sqoop-1.4.4/lib/


2.安装和配置
    在添加sqoop到环境变量
    添加sqoop2到系统环境变量中:

    export SQOOP2_HOME=/home/spark/app/sqoop2-1.99.3-cdh5.0.0
    export CATALINA_BASE=$SQOOP2_HOME/server
    export PATH=.:$SQOOP2_HOME/bin:$PATH
    将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
    第一类:数据库中的数据导入到HDFS上
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --columns 'id, account, income, expenses'
        
        指定输出路径、指定数据分隔符
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td' --fields-terminated-by '\t'
        
        指定Map数量 -m
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

        增加where条件, 注意:条件必须用引号引起来
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2'

        增加query语句(使用 \ 将语句换行)
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 \
--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'
        
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
        
    第二类:将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
        sqoop export --connect jdbc:mysql://192.168.8.120:3306/itcast --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-terminated-by ','
    
4.配置mysql远程连接
    GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES;
    
    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES


0 0
原创粉丝点击