大数据监控系统相关设计开发
来源:互联网 发布:淘宝质量问题怎么赔偿 编辑:程序博客网 时间:2024/06/06 02:24
spoor-metrics
spoor-metrics 是一个监控系统的收集模块,主要用于采集现有大数据基础组件的metric信息,并且进行展示
白名单
白名单配置文件主要用于过滤和解析metrics system产生的信息,并且进行压缩,常见的一份配置如下
filesystem.file.largeRead_ops=fileLargeReadOps,Gaugefilesystem.file.read_bytes=fileReadBytes,Gaugefilesystem.file.read_ops=fileReadOps,Gaugefilesystem.hdfs.largeRead_ops=hdfsLargeReadOps,Gaugefilesystem.hdfs.read_bytes=hdfsReadBytes,Gaugefilesystem.hdfs.read_ops=hdfsReadOps,GaugeBlockManager.memory.maxMem_MB=memoryMaxMem,GaugeBlockManager.memory.memUsed_MB=memoryMemUsed,GaugeBlockManager.disk.diskSpaceUsed_MB=diskSpaceUsed,Gauge
只有在白名单中被配置过的指标才会被收集模块进行收集
reporter
spark中使用的metircs是io.dropwizard.metrics
,其默认的reporter并不是特别符合我们的需求,因此我们实现了一个Kafka的Repoter,用于推送到kafka中
spark sink
spark的metrics system主要是启动的时候将sink传入进去,相关代码在org.apache.spark.metrics.MetricsSystem
中,然后比如Executor等在内部注册到source里面去,通过这种方式完成的解耦,所以也很简单,按照配置规范,自己实现个sink就好了
*.sink.kafka.class=org.apache.spark.spoor.metrics.sink.KafkaSink*.sink.kafka.period=10*.sink.kafka.unit=seconds*.sink.kafka.topic=spoor-metrics*.sink.kafka.broker=192.168.3.44:9092*.sink.kafka.group=data
消费
消费端就是spark streaming去操作对应的kafka,解码成对象,然后每个window中用sparkSql转换成一个DataSet,持久化到外部存储中就可以了
展示
相关源码后面整理下,看能不能开源出来,整个设计还是比较简洁的
mygithub
0 0
- 大数据监控系统相关设计开发
- 大数据系统设计开发备忘要点
- 大数据相关技术系统介绍
- 大数据平台任务调度与监控系统
- DM368开发 -- 视频监控系统相关技术研究(转毕设)
- 实时大数据系统的设计原则
- 餐饮大数据-系统架构模块设计
- 大数据/数据挖掘/推荐系统/机器学习相关资源
- 大数据/数据挖掘/推荐系统/机器学习相关资源
- 大数据/数据挖掘/推荐系统/机器学习相关资源
- 大数据/数据挖掘/推荐系统/机器学习相关资源
- 本人开发系统--新生报到与数据统计管理系统--数据库设计及相关查询SQL语句笔记
- 设计一个监控系统
- 移动物体监控系统的设计与开发完整版
- 移动物体监控系统的设计与开发完整版
- 智能监控系统开发
- 无线远程监控用网关设计开发以及远程监控系统搭建
- 大数据相关
- 分冶-二分查找
- ubuntu 改时区
- Java7:int i=0b010101;
- android: 侧滑菜单的实现(ViewDragHelper)
- Makefile 简单模板
- 大数据监控系统相关设计开发
- js获取当前页面所在目录路径
- [bigdata-037]apache hue 用SQL获取数据以及可视化
- iOS 自定义日历的实现
- unity 3d 在限定区域内 实现文字拖动翻页
- 把Caffe集成到c++项目的流程
- READING NOTE: A New Convolutional Network-in-Network Structure
- eclicpse使用入门教程
- dom4j写出项目下的文档到硬盘指定路径下