kafka-connect遇到的问题
来源:互联网 发布:数据库范式经典例题 编辑:程序博客网 时间:2024/05/16 11:16
写在前面
写博客时使用的版本 Confluent Platform v3.2.1。使用的话,大家看官方文档kafka-connect,下面有几个使用过程中遇到的问题:
我的kafka里的数据是avro格式的,应需求要从kafka导入mysql数据库和从HDFS导入到kafka。
standalone模式启动命令:
//后面可以接多个配置文件,执行多个任务
./connect-standalone ../etc/schema-registry/connect-avro-standalone.properties ../etc/kafka-connect-jdbc/sink-quickstart-sqlite1.properties ../etc/kafka-connect-jdbc/quickstart-sqlite2.properties
1. 配置kafka-connect时,你可能想知道它支持kafka什么之间的连接,下面就是文件中connector.class
选项
配置connector.class
kafka.connect available connectors are: org.apache.kafka.connect.tools.MockSinkConnector, org.apache.kafka.connect.source.SourceConnector, io.confluent.connect.jdbc.JdbcSinkConnector,io.confluent.connect.hdfs.HdfsSinkConnector, io.confluent.connect.elasticsearch.ElasticsearchSinkConnector, io.confluent.connect.hdfs.tools.SchemaSourceConnector, io.confluent.connect.s3.S3SinkConnector, io.confluent.connect.jdbc.JdbcSourceConnector, io.confluent.connect.storage.tools.SchemaSourceConnector, org.apache.kafka.connect.tools.MockConnector, org.apache.kafka.connect.sink.SinkConnector, org.apache.kafka.connect.tools.VerifiableSourceConnector,org.apache.kafka.connect.tools.SchemaSourceConnector, org.apache.kafka.connect.file.FileStreamSinkConnector, org.apache.kafka.connect.tools.MockSourceConnector, org.apache.kafka.connect.file.FileStreamSourceConnector, org.apache.kafka.connect.tools.VerifiableSinkConnector
2. 当mysql作为connector-sink的时候,通过设置table.name.format
来实现自定义表名或者是加前缀后缀的功能,如果为空,则使用topic作为表名。
name=test-sinkconnector.class=io.confluent.connect.jdbc.JdbcSinkConnectortasks.max=1#kafka的topic名称topics=kafka_test# 配置JDBC链接connection.url=jdbc:mysql://localhost:3306/test?user=root&password=root# 不自动创建表,如果为true,会自动创建表,表名为topic名称auto.create=false# upsert model更新和插入insert.mode=upsert# 下面两个参数配置了以kafkacol为主键更新pk.mode = record_valuepk.fields = kafkacol#表名为kafkatabletable.name.format=kafkatable
- 它不支持复杂逻辑的插入表操作。比如需要对kafka的数据做些逻辑处理再插入表。
- kafka中数据的schema要和表的字段对应,不多不少。
- 比如需要根据表里不是主键的字段更新,目前还没找到方法。
3.这个版本还没有connector-source为hdfs的组件,在github中找到一个插件kafka-hdfs-source-connector,需要编译。
- 它支持监听文件夹/文件,但是一次性读取的数据量过大会内存溢出,可以看下代码,根据需求自己修改。
- topic名称由
topic.prefix
的值来决定。 - 任务中断再次重启会记录偏移量。
(未完待续……..)
阅读全文
1 0
- kafka-connect遇到的问题
- 【kafka】kafka安装配置以及遇到的问题
- kafka安装与启动遇到的问题
- kafka get started中遇到的问题
- Kafka使用ambari安装遇到的问题
- SparkStreaming消费Kafka数据遇到的问题
- iTunes Connect上遇到的一些问题
- Kafka 消费过程中遇到的一些问题
- 新版iTunes Connect发布App时,遇到的问题
- iTunes connect 上传app遇到的问题 联系官方大全
- Kafka Connect
- kafka connect
- Kafka connect的offset commit机制
- mysql,phpmyadmin 的安装 时遇到的问题[1251 - Client does yAdmin tried to connect
- 配置了拦截器的应用执行HttpURLConnection之connect方法遇到的问题
- hadoop遇到的问题: org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决
- kafka解决的问题
- socket connect的问题
- 高软实验一报告
- 2017.9.17------训练赛有感
- CF Educational Codeforces Round 15(C)
- Spring 事务机制详解
- java实现生产者消费者
- kafka-connect遇到的问题
- LeetCode: 672. Bulb Switcher II
- C语言实现面向对象的思想(实现封装、继承和多态)
- LeetCode 145:Binary Tree Postorder Traversal 解题与思考
- 网页编程--JavaScript之通过层次关系来获取节点
- C++ Primer 3.2.3~3.5.3部分节练习
- 亲自操刀:cache页面置换算法LRU AND LFU
- JSP的执行过程
- 我对高质量代码的理解