flume-Spark整合-push方式
来源:互联网 发布:黑龙江省统计局数据 编辑:程序博客网 时间:2024/06/06 07:28
第一种sparkStreaming 整合Flume
flume采用 netcat-memory-avro架构
本地测试
1:本地启动sprakStreaming服务,(0.0.0.0 10000)
2. 服务器中启动flume agent
3. telnet往端口中输入数据,观察本地idea控制台输出数据
服务器测试
mvn打包:mvn clean package -DskipTests
上传至服务器
先启动spark
spark-submit \--class com.tuzhihai.flumespark.FlumePushSpark \--master local[2] \--packages org.apache.spark:spark-streaming-flume_2.11:2.2.0 \/root/soft_down/lib/sparklearn-1.0.jar \192.168.145.128 10000
后启动flume
flume-ng agent \ --name netcat-memory-avro \ --conf $FLUME_HOME/conf \ --conf-file $FLUME_HOME/conf/netcat-memory-avro.conf \ -Dflume.root.logger=INFO,console
在端口输入数据
telnet 192.168.145.128 9990
观察flume控制台
push方式为什么要先启动spark,后启动flume?
因为采用的是flume-Push,要push到一个服务器里,首先这个服务里得存在是不?所以要先启动spark这个接收数据的服务器,再启动flume这个采集数据的工具
flume-push-stream.conf
flume-ng agent \ --name netcat-memory-avro \ --conf $FLUME_HOME/conf \ --conf-file $FLUME_HOME/conf/netcat-memory-avro.conf \ -Dflume.root.logger=INFO,console # example netcat-memory-avronetcat-memory-avro.sources = netcat-sourcenetcat-memory-avro.sinks = avro-sinknetcat-memory-avro.channels = memory-channel# Describe/configure the sourcenetcat-memory-avro.sources.netcat-source.type = netcatnetcat-memory-avro.sources.netcat-source.bind = 192.168.145.128netcat-memory-avro.sources.netcat-source.port = 9999# Describe/ the sinknetcat-memory-avro.sinks.avro-sink.type = avronetcat-memory-avro.sinks.avro-sink.hostname = 192.168.145.128netcat-memory-avro.sinks.avro-sink.port = 10000# Use a channel which buffers events in memorynetcat-memory-avro.channels.memory-channel.type = memory# Bind the source and sink to the channelnetcat-memory-avro.sources.netcat-source.channels = memory-channelnetcat-memory-avro.sinks.avro-sink.channel = memory-channel
阅读全文
0 0
- flume-Spark整合-push方式
- Spark streaming整合flume之Push方式
- Spark streaming整合Flume之pull方式
- SparkStreaming整合Flume(一)Push方式的整合
- Spark Streaming与Flume集成小测试:PUSH的方式
- Spark-Flume整合--Pull
- Spark-Streaming 使用flume的push方式进行流式处理
- Spark Streaming 和 Flume-NG的整合
- Spark和Flume-ng的整合
- Flume和SparkStream结合的两种方式--push
- SparkStreaming整合Flume(二)Pull方式的整合
- Spark Streaming整合Flume&Kafka打造通用流处理基础
- Flume+Kakfa+Spark Streaming整合(运行WordCount小例子)
- Spark + Flume
- Spark + Flume
- Flume Push数据到spark streaming或者接收Spark streaming的poll数据时实际运行程序总结
- Spark streaming整合Kafka之Receiver方式
- Spark streaming整合Kafka之Direct方式
- [Python]
- 大二上学期数据结构总结
- 大数据24小时:金山云完成3亿美元融资,猎豹汽车与联想合作打造智能汽车生活方式
- IntellJ Idea下的Tomcat启动慢
- eclipse直接查看jar包中class文件的源代码
- flume-Spark整合-push方式
- 简单的通过shell脚本接收参数进行数据库操作
- Android studio关于ButterKnife的坑
- 开发中前后端数据通信,前后端联调方法
- OpenCV常用函数说明
- Android5.X之Material Design与主题
- Android5.X之ToolBar
- mysql随机插入日期时间
- Android5.X之PercentLayout