Elasticsearch Bulk

来源:互联网 发布:反编译软件为dede 编辑:程序博客网 时间:2024/06/05 09:25
与mget能同时允许帮助我们获取多个文档相同,bulk API可以帮助我们同时完成执行多个请求,比如:create,index, update以及delete。当你在处理类似于log等海量数据的时候,你就可以一下处理成百上千的请求,这个操作将会极大提高效率。bulk的请求主体的格式稍微有些不同:
{ action: { metadata }}\n{ request body        }\n{ action: { metadata }}\n{ request body        }\n...
这种格式就类似于一个用"\n"字符来连接的单行json一样。下面是两点注意事项:每一行都结尾处都必须有换行字符"\n",最后一行也要有。这些标记可以有效地分隔每行。这些行里不能包含非转义字符,以免干扰数据的分析 — — 这也意味着JSON不能是pretty-printed样式。 action/metadata 行指定了将要在哪个文档中执行什么操作。其中action必须是index, create, update或者delete。metadata 需要指明需要被操作文档的_index, _type以及_id,例如删除命令就可以这样填写:
 { "delete": { "_index": "megacorp", "_type": "employee", "_id": "1" }}
在你进行index以及create操作时,request body 行必须要包含文档的_source数据——也就是文档的所有内容。 同样,在执行update API: doc, upsert,script的时候,也需要包含相关数据。而在删除的时候就不需要request body行。
{ "create":  { "_index": "megacorp", "_type": "employee", "_id": "123" }}{ "title":    "My first blog post" }
如果没有指定_id,那么系统就会自动生成一个ID:
{ "index": { "_index": "megacorp", "_type": "employee" }}{ "title":    "My second blog post" }
完成以上所有请求的bulk如下:
curl -XPOST  "http://localhost:9200/_bulk?pretty" -d '{ "delete": { "_index": "megacorp", "_type": "employee", "_id": "123" }} <1>{ "create": { "_index": "megacorp", "_type": "employee", "_id": "123" }}{ "title":    "My first bulk demo" }{ "index":  { "_index": "megacorp", "_type": "employee" }}{ "title":    "My second bulk demo" }{ "update": { "_index": "megacorp", "_type": "employee", "_id": "123", "_retry_on_conflict" : 3} }{ "doc" : {"title" : "My updated bulk demo"} } <2> '
注意delete操作是如何处理request body的,你可以在它之后直接执行新的操作。请记住最后有换行符Elasticsearch会返回含有items的列表、它的顺序和我们请求的顺序是相同的:
{  "took" : 23,  "errors" : false,  "items" : [    {      "delete" : {        "found" : true,        "_index" : "megacorp",        "_type" : "employee",        "_id" : "123",        "_version" : 3,        "result" : "deleted",        "_shards" : {          "total" : 2,          "successful" : 1,          "failed" : 0        },        "status" : 200      }    },    {      "create" : {        "_index" : "megacorp",        "_type" : "employee",        "_id" : "123",        "_version" : 4,        "result" : "created",        "_shards" : {          "total" : 2,          "successful" : 1,          "failed" : 0        },        "created" : true,        "status" : 201      }    },    {      "index" : {        "_index" : "megacorp",        "_type" : "employee",        "_id" : "AVpk5cudosJrEdXVKk5W",        "_version" : 1,        "result" : "created",        "_shards" : {          "total" : 2,          "successful" : 1,          "failed" : 0        },        "created" : true,        "status" : 201      }    }  ]}
所有的请求都被成功执行。每一个子请求都会被单独执行,所以一旦有一个子请求失败了,并不会影响到其他请求的成功执行。如果一旦出现失败的请求,error就会变为true,详细的错误信息也会出现在返回内容的下方:
curl -XPOST  "http://localhost:9200/_bulk?pretty" -d '{ "delete": { "_index": "megacorp", "_type": "employee", "_id": "123" }} <1>{ "create": { "_index": "megacorp", "_type": "employee", "_id": "123" }}{ "title":    "My first bulk demo" }
请求中的create操作失败,因为123已经存在,但是之后针对文档123的index操作依旧被成功执行:
{  "took" : 14,  "errors" : false,  "items" : [    {      "delete" : {        "found" : true,        "_index" : "megacorp",        "_type" : "employee",        "_id" : "123",        "_version" : 5,        "result" : "deleted",        "_shards" : {          "total" : 2,          "successful" : 1,          "failed" : 0        },        "status" : 200      }    }  ]}
至少有一个请求错误发生。这条请求的状态码为409 CONFLICT。错误信息解释了导致错误的原因。第二条请求的状态码为200 OK。这也更好地解释了bulk请求是独立的,每一条的失败与否 都不会影响到其他的请求。整个数据将会被处理它的节点载入内存中,所以如果请求量很大的话,留给其他请求的内存空间将会很少。bulk应该有一个最佳的限度。超过这个限制后,性能不但不会提升反而可能会造成宕机。 最佳的容量并不是一个确定的数值,它取决于你的硬件,你的文档大小以及复杂性,你的索引以及搜索的负载。幸运的是,这个平衡点 很容易确定:试着去批量索引越来越多的文档。当性能开始下降的时候,就说明你的数据量太大了。一般比较好初始数量级是1000到5000个文档,或者你的文档很大,你就可以试着减小队列。 有的时候看看批量请求的物理大小是很有帮助的。1000个1KB的文档和1000个1MB的文档的差距将会是天差地别的。比较好的初始批量容量是5-15MB。
0 0
原创粉丝点击