Druid 大数据分析之快速应用(单机模式)

来源:互联网 发布:mac os 杀毒 编辑:程序博客网 时间:2024/05/18 00:34
一、概述
   本节快速安装基于单机服务器,很多配置可以默认不需要修改,数据存储在操作系统级别的磁盘。推出快速安装的目的,便于了解并指导基于Druid进行大数据分析的开发流程。本节主要讲Druid的安装、实例数据加载、查询及使用问题解决。

 

二、安装要求
   1. Java 7 及以上
   2. Linux, Mac OS X, or other Unix-like OS (Windows不支持)
   3. VMware
   4. 2CPU ++; 内存2G ++

 

三、Zookeeper 安装
   本次采单机版安装,如果采用分布式安装,则需要修改Druid相应配置,反之不需要。 Zookeeper默认启用2181端口监听。

 

Linux代码  收藏代码
  1. curl http://www.gtlib.gatech.edu/pub/apache/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz -o zookeeper-3.4.6.tar.gz  
  2. tar -xzf zookeeper-3.4.6.tar.gz  
  3. cd zookeeper-3.4.6  
  4. cp conf/zoo_sample.cfg conf/zoo.cfg  
  5. ./bin/zkServer.sh start  

     zookeeper 安装验证

Linux和zookeeper命令代码  收藏代码
  1. cd zookeeper-3.4.6 // 切换至Zookeeper根目录  
  2. bin/zkCli.sh       // 启动Zookeeper客户端  
  3. ls /               // 查看根节点  
 
四、Druid 安装
Java代码  收藏代码
  1. curl -O http://static.druid.io/artifacts/releases/druid-0.9.1.1-bin.tar.gz  
  2. tar -xzf druid-0.9.1.1-bin.tar.gz  
  3. cd druid-0.9.1.1  

 

解压后 Druid 相关目录说明
 
  • LICENSE - 许可证文件。
  • bin/ - 快速启动脚本。
  • conf/* - 集群安装配置(包括Hadoop)。
  • conf-quickstart/* - 快速启动相关配置。
  • extensions/* - Druid扩展。
  • hadoop-dependencies/* - Druid hadoop依赖。
  • lib/* - Druid核心软件包。
  • quickstart/* - 快速启动示例文件及数据。

 

五、启动 Druid 准备
   启动Druid相关服务之前,我们需要做两件事:
   1. 启动Zookeeper
   2. 切换到Druid根目录,执行 bin/init

 

六、启动 Druid 相关服务
   启动5个Druid进程在不同远程终端窗口,因为是单机模式,所有进程在同一服务器上;在大的分布式集群中,很多Druid进程可以在同一服务器,我们需要启动的5个Druid进程:Historical、Broker、coordinator、overlord、middleManager。overlord与middleManager对应Indexer节点,节点相关介绍请查看《http://yangyangmyself.iteye.com/blog/2320502》,后续将会详细介绍节点工作机制。

    

    切换至Druid安装目录,在不同远程终端窗口依次执行以命令

Java代码  收藏代码
  1. java `cat conf-quickstart/druid/historical/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/historical:lib/*" io.druid.cli.Main server historical  
  2. java `cat conf-quickstart/druid/broker/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/broker:lib/*" io.druid.cli.Main server broker  
  3. java `cat conf-quickstart/druid/coordinator/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/coordinator:lib/*" io.druid.cli.Main server coordinator  
  4. java `cat conf-quickstart/druid/overlord/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/overlord:lib/*" io.druid.cli.Main server overlord  
  5. java `cat conf-quickstart/druid/middleManager/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/middleManager:lib/*" io.druid.cli.Main server middleManager  

 

Druid 控制台 
   如果上述服务启动成功,则可以访问如下控制台
   1.
 访问http://localhost:8090/console.html 可以查看数据批量导入Druid的任务执情况,间隔一段时间刷新一下控制台,如果看到SUCCESS任务状态,说明任务执行成功,如下图所示:


 
    2. 访问http://localhost:8081/ 查看任完成进度、数据分片情况、索引创建等

 
 

 

七、Druid 加文件数据
   以上Druid相关服务启动后,我们需要加载相关业务数据到Druid,Druid根据数据加载的配置文件,将我们的原始业务数据做相应的预处理后进行存储,以便后续查询统计。数据加载有两种方式:一是实时加载;二、加载批文件,本节讲如何加载Json批数据文件。
   1. 中文乱码:Json规范这里不再阐述,讲一下生成Json数据文件注意的情况,目前发现Json中含有中文情况下,将Json数据加载到Druid时出现乱码。生成Json指文件编码为UTF-8。
   2. 时间序列值:Druid按时间进序列值进行数据分片,按时间字段进行数据分片的字段值需要标准化(UTC)处理。

 

编码代码  收藏代码
  1. try{  
  2.     OutputStream out = new FileOutputStream(new File("E:\\study\\druid\\rpass_20150801.json"),true);  
  3.     Writer write = new OutputStreamWriter(out,"utf-8");  
  4.     write.write(json.toString()+"\n");  
  5.     write.flush();  
  6.     write.close();  
  7.     out.close();  
  8. }catch(){  
  9.     e.printStackTrace();  
  10. }  
Json示例数据代码  收藏代码
  1. {"gcxh":"430000002745468976","license":"测AZ6LUL","licenseType":"02","hpys":"5","csys":null,"cllx":"0","clpp":null,"gateId":"430186000347","fxlx":"8","cdbh":"1","passTime":"2016-07-03T20:23:17.000Z","carPassDate":"2016-07-04","carPassTime":"04:23:17","carLoc":"测A","province":"43","city":"4301","region":"430186"}  

 

时间序列标准化代码  收藏代码
  1. /**引用joda类库*/  
  2. DateTimeFormatter dtFormatter=DateTimeFormat.forPattern("yyyy-MM-dd hh:mm:ss");    
  3. String result = dtFormatter.parseDateTime('2016-08-29 22:58:20').withZone(DateTimeZone.UTC).toString(); /**输出结果 2016-08-29T22:58:20.000Z*/  

 

   将上述Json示例数据保存为pass.json的文件,接下来定义一个数据配置文件pass-index.json,在pass-index.json中引用数据pass.json、指定数据源名(类似表名)、数据维度列、聚合粒度、时间间隔等。

 

Java代码  收藏代码
  1. {  
  2.   "type" : "index_hadoop",  
  3.   "spec" : {  
  4.     "ioConfig" : {  
  5.       "type" : "hadoop",  
  6.       "inputSpec" : {  
  7.         "type" : "static",  
  8.         "paths" : "/opt/data/pass.json" /**指定数据*/  
  9.       }  
  10.     },  
  11.     "dataSchema" : {  
  12.       "dataSource" : "kakou",  /**数据源名,类似表名*/  
  13.       "granularitySpec" : {  
  14.         "type" : "uniform",  
  15.         "segmentGranularity" : "day"/**数据分片粒度,按天*/  
  16.         "queryGranularity" : "none",  
  17.         "intervals" : ["2016-07-04/2016-07-05"/**时间跨度*/  
  18.       },  
  19.       "parser" : {  
  20.         "type" : "string",  
  21.         "parseSpec" : {  
  22.           "format" : "json",  /**数据文件类型*/  
  23.           "dimensionsSpec" : {  
  24.             "dimensions" : [  /**数据列*/  
  25.               "license",  
  26.               "carLoc",  
  27.               "licenseType",  
  28.               "hpys",  
  29.               "cllx",  
  30.               "clpp",  
  31.               "gateId",  
  32.               "fxlx",  
  33.               "passTime",  
  34.               "carPassDate",  
  35.               "carPassTime",  
  36.               "province",  
  37.               "city",  
  38.               "region"  
  39.             ]  
  40.           },  
  41.           "timestampSpec" : {   
  42.             "format" : "auto",  
  43.             "column" : "passTime"  /**指定时间分段*/  
  44.           }  
  45.         }  
  46.       },  
  47.       "metricsSpec" : [     
  48.         {  
  49.           "name" : "count",  
  50.           "type" : "count"  /**按count聚合*/  
  51.         }  
  52.       ]  
  53.     },  
  54.     "tuningConfig" : {  
  55.       "type" : "hadoop",  
  56.       "partitionsSpec" : {  
  57.         "type" : "hashed",  
  58.         "targetPartitionSize" : 5000000  
  59.       },  
  60.       "maxRowsInMemory":500000,  
  61.       "jobProperties" : {}  
  62.     }  
  63.   }  
  64. }  
 
Java代码  收藏代码
  1. /**执行如下命令进行导入操作*/  
  2. curl -X 'POST' -H 'Content-Type:application/json' -d @/opt/data/pass-index.json 192.168.121.200:8090/druid/indexer/v1/task  
 

    执行上述命后,Druid将任务提交给Hadoop中的Map-Reduce执行,导入时任务可会因为某种原因导致任务挂起或停止,可以通过下述命将挂起任务删除,重新执行导入。

 

Java代码  收藏代码
  1. /**taskId可以从控制台获取或在执行Curl导入命令时返回值*/  
  2. http://<OVERLORD_IP>:<port>/druid/indexer/v1/task/{taskId}/shutdown  
1 0
原创粉丝点击