ElasticSearc写入查询性能优化总结
创始人
2024-05-22 09:08:20
0

文章目录

  • 前言
    • 1、bulk批量写入
    • 2、多线程写入
    • 3、修改索引刷新时间
    • 4、修改merge参数以及线程数
    • 6、index buffer
    • 7、磁盘间的任务均衡
    • 8、Mapping优化
      • 8.1、自动生成docID(避免ES对自定义ID验证的操作)
      • 8.2、调整字段Mapping
      • 8.3、调整_source字段
      • 8.4、禁用_all
      • 8.5、禁用Norms
      • 8.6、index_options设置
    • 9、优化存储
  • 总结


前言

ES 的默认配置,是综合了数据可靠性、写入速度、搜索实时性等因素。实际使用时,我们需要根据公司要求,进行偏向性的优化。


对于写入优化,综合来说,可以考虑以下几个方面来提升写索引的性能:

  • 加大 Translog Flush ,目的是降低 Iops、Writeblock
  • 增加 Index Refresh 间隔,目的是减少 Segment Merge 的次数
  • 调整 Bulk 线程池和队列
  • 优化节点间的任务分布
  • 优化 Lucene 层的索引建立,目的是降低 CPU 及 IO

1、bulk批量写入

  1. 如果业务场景支持将一批数据聚合起来,一次性写入Elasticsarch,那么尽量采用bulk的方式,bulk批量写入的速度远高于一条一条写入大量document的速度。
  2. 并不是bulk size越大越好,而是根据写入数据量具体来定的,因为越大的bulk size会导致内存压力过大。
  3. Bulk 默认设置批量提交的数据量不能超过 100M。数据条数一般是根据文档的大小和服务器性能而定的,但是单次批处理的数据大小应从
    5MB~15MB 逐渐增加,当性能没有提升时,把这个数据量作为最大值,计算公式为:

一次bulk写入的数据量大小=一次bulk批量写入的文档数*每条数据量的大小。

2、多线程写入

  1. 单线程发送bulk请求是无法最大化Elasticsearch集群写入的吞吐量的。如果要利用集群的所有资源,就需要使用多线程并发将数据bulk写入集群中。多线程并发写入同时可以减少每次底层磁盘fsync的次数和开销。
  2. 一旦发现ES返回了TOO_MANY_REQUESTS的错误,JavaClient也就是EsRejectedExecutionException。此时说明Elasticsearch已经达到了一个并发写入的最大瓶颈了。推荐使用CPU核数的2倍线程数。

3、修改索引刷新时间

为了提高索引性能,Elasticsearch 在写入数据时候,采用延迟写入的策略,即数据先写到内存中,默认情况下索引的refresh_interval为1秒,当超过默认 1 秒 (index.refresh_interval)会进行一次写入操作,就是将内存中 segment 数据刷新到操作系统中,这意味着数据写1秒后就可以被搜索到,所以这就是为什么 Elasticsearch 提供的是近实时搜索功能,而不是实时搜索功能,每次索引的 refresh 会产生一个新的 lucene 段,这会导致频繁的 segment merge 行为。
当然像我们目前的场景对数据延迟要求不高的话,我们可以通过延长 refresh 时间间隔,可以有效的减少 segment 合并压力,提供索引速度。
甚至,在进行全量索引时,可以将 refresh 次数临时关闭,即 index.refresh_interval 设置为 -1,数据导入成功后再打开到正常模式,比如 30s。
以bvd_entity索引为例,我们最终调整修改索引刷新时间间隔为180s:

curl -XPUT --tlsv1.2 --negotiate -k -v -u : "https://192.168.1.101:24100/bvd_entity/_settings" -H 'Content-Type: application/json' -d' 
{ "refresh_interval": "180s" 
}'

4、修改merge参数以及线程数

Elasticsearch写入数据时,refresh刷新会生成1个新的segment,segments会按照一定的策略进行索引段合并merge。merge的频率对写入和查询的速度都有一定的影响,如果merge频率比较快,会占用较多的IO,影响写入的速度,但同时segment个数也会比较少,可以提高查询速度。所以merge频率的设定需要根据具体业务去权衡,同时保证写入和查询都相对快速。Elasticsearch默认使用TieredMergePolicy,可以通过参数去控制索引段合并merge的频率:

1).参数“index.merge.policy.floor_segment”,Elasticsearch避免产生很小的segment,小于这个阀值的所有的非常小的segment都会merge直到达到这个floor的size,默认是2MB。
2).参数“index.merge.policy.max_merge_at_once”,一次最多只merge多少个segments,默认是10。
3).参数“index.merge.policy.max_merged_segment”,超过多大size的segment不会再做merge,默认是5g。
4).参数“index.merge.policy.segment_per_tier”默认为10,表示每个tier允许的segment个数,注意这个值要大于等于“index.merge.policy.max_merge_at_once”值,否则这个值会先于最大可操作数到达,就会立刻做merge,这样会造成频繁merge。
5).参数“ index.merge.scheduler.max_thread_count
”,单个shard上可能同时合并的最大线程数。默认会启动 Math.max(1, Math.min(4,
Runtime.getRuntime().availableProcessors() / 2))
个线程进行merge操作,适用于SSD固态硬盘。但是如果硬盘是机械硬盘,很容易出现IO阻塞,将线程数设置为1。

一般情况下,通过调节参数index.merge.policy.max_merge_at_onceindex.merge.policy.segment_per_tier去控制merge的频率。

参数修改好处坏处
提高“index.merge.policy.max_merge_at_once”和“index.merge.policy.segment_per_tier”参数值提升indexing速度减少了segment merge动作的发生,意味着更多的segments,会降低searching速度
降低“index.merge.policy.max_merge_at_once”和“index.merge.policy.segment_per_tier”参数值Segments更少,即能够提升searching速度更多的segments merge操作,会花费更多系统资源(CPU/IO/RAM),会降低indexing速度

修改参数命令如下示例:

curl -XPUT --tlsv1.2 --negotiate -k -v -u : "https://ip:httpport/myindex-001/_settings?pretty" -H 'Content-Type: application/json' -d' 
{ "merge":{ "scheduler":{ "max_thread_count" : "1" }, "policy":{ "segments_per_tier" : "20", "max_merge_at_once": "20", "floor_segment" : "2m", "max_merged_segment" : "5g" } } 
}'

5、事务日志translog调整
translog写入了一份全量的数据,它有点像MysSQL中的binlog(记录所有数据库表结构变更(例如CREATE、ALTER TABLE…)以及表数据修改(INSERT、UPDATE、DELETE…)的二进制日志),用来保证异常情况下的数据安全。这是因为,我们把数据写到磁盘后,还要调用fsync才能把数据刷到磁盘中,如果不这样做在系统掉电的时候就会导致数据丢失。在ES 2.x开始,默认情况下,translog的持久化策略为:每个请求都“flush”。
对应配置:
index.translog.durability:request
以bvd_entity索引为例,我们的事物日志调整为:

curl -XPUT --tlsv1.2 --negotiate -k -v -u : "https://ip:httpport/bvd_entity/_settings" -H 'Content-Type: application/json' -d' 
{ "translog" : {"flush_threshold_size" : "1g",--当translog的大小达到此值时会进行一次flush操作"sync_interval" : "180s",--设置刷盘时间为180s"durability" : "async" --设置translog策略为异步},
}'

6、index buffer

indexing buffer 在为doc建立索引时使用,当缓冲满时会刷入磁盘,生成一个新的segment,这是除了refresh_interval 刷新索引外,另一个生成新segment的机会。每个shard有自己的indexing buffer,下面的这个buffer大小的配置需要除以这个节点上索引shard的数量:

indices.memory.index_buffer_size 默认是整个堆空间的10%
indices.memory.min_index_buffer_size 默认48MB
indices.memory.max_index_buffer_size 默认无限制

在执行大量的索引操作时,indices.memory.index_buffer_size的默认设置可能不够,这和可用堆内存,单节点上的shard数量相关,可以考虑适当增大该值。

7、磁盘间的任务均衡

ES 在分配shard的时候,落到各个磁盘的shard可能并不均匀,这种不均匀可能导致某些磁盘繁忙,对写入性能会产生一定的影响。
为了让各个实例上的分片均匀分布,添加如下参数,设置每个索引在单个实例上的分片个数,如下所示为每个索引在每个实例上的分片为2个。

curl -XPUT --tlsv1.2 --negotiate -k -u : "https://ip:httpport/myindex/_settings?pretty' -H 'Content-Type:application/json' -d '
{"index.routing.allocation.total_shards_per_node":"2"
}'

8、Mapping优化

8.1、自动生成docID(避免ES对自定义ID验证的操作)

分析 es 写入流程可以知道,写入 doc 时如果是外部指定了 id,es 会先尝试读取原来doc的版本号, 判断是否需要更新,使用自动生成 doc id 可以避免这个环节。

8.2、调整字段Mapping

  • 减少不必要的字段数量
  • 将不需要建立索引字段的index属性设置为not_analyzed或no。对字段不分词或不建立索引,减少相应的操作,特别是binary类型
  • 减少字段内容长度
  • 使用不同的分析器(analyzer),不同分析器之间的运算复杂度也不相同

8.3、调整_source字段

_source”字段包含在索引时传递的原始JSON文档正文。该“_source”字段本身不被索引(因此是不可搜索的),但它被存储,以便在执行撷取请求时可以返回,例如get或search。
虽然很方便,但是“_source”字段确实在索引中有不小的存储开销。因此,可以使用如下方式禁用:

curl -XPUT --tlsv1.2 --negotiate -k -u : 'https://ip:httpport/tweets?pretty' -H 'Content-Type: application/json' -d'
{"mappings": {"tweet": {"_source": {"enabled": false}}}
}'

在禁用_source 字段之前请注意:如果_source字段不可用,则不支持以下功能:

  • update,update_by_query,reindex APIs.
  • 高亮
  • 将索引从一个Elasticsearch索引reindex(重索引)到另一个索引的能力,以便更改映射或分析,或将索引升级到新的主要版本。
  • 通过查看索引时使用的原始文档来调试查询或聚合的能力。
  • 潜在的未来可能会自动修复索引损坏的能力。

所以,一般真实场景下,这个字段不会被禁用。

8.4、禁用_all

_all字段中包含所有字段分词后的关键词,作用是可以搜索的时候不指定特定字段,从所有字段所有中减少,如果我们明确知道要检索哪些字段,就可以选择将这个字段禁用,否则会额外增加索引存储开销。

8.5、禁用Norms

Norms用于在搜索时计算doc的评分,如果不需要评分,则可以将其禁用:

"title":{"type":"string","norms":{"enabled":false}}

8.6、index_options设置

index_options用于控制在建立倒排索引过程中,哪些内容会被添加到倒排索引中,例如:

"index_options" : "docs" ,# 4个可选参数# docs(索引文档号),# freqs(文档号 + 词频),# positions(文档号 + 词频 + 位置,通常用来距离查询),# offsets(文档号 + 词频 + 位置 + 偏移量,通常被使用在高亮字段)

优化这些设置可以一定程度上降低索引过程中的计算任务,接收CPU占用率。

9、优化存储

ES 是一种密集使用磁盘的应用,在段合并的时候会频繁操作磁盘,所以对磁盘要求较高,当磁盘速度提升之后,集群的整体性能会大幅度提高。
磁盘的选择,提供以下几点建议:

  1. 使用 SSD。就像其他地方提过的,他们比机械磁盘优秀多了。
  2. 使用 RAID 0。条带化 RAID 会提高磁盘 I/O,代价显然就是当一块硬盘故障时整个就故障了。不要使用镜像或者奇偶校验 RAID
    因为副本已经提供了这个功能。
  3. 另外,使用多块硬盘,并允许 Elasticsearch 通过多个 path.data 目录配置把数据条带化分配到它们上面,如下所示:
    path.data:/path/to/data1,/path/to/data2。
  4. 不要使用远程挂载的存储,比如 NFS 或者 SMB/CIFS。这个引入的延迟对性能来说完全是背道而驰的。

总结

通过上面优化手段,博主亲测优化效率:

  • 优化后,每秒写入速度从900+ 提升到每秒2.9万左右,截图如下:
    在这里插入图片描述
  • 查询性能,由原来的8.4秒,降低到2秒,为了不涉密截图不能放

相关内容

热门资讯

高考在校表现怎么写范文【推荐... 高考在校表现怎么写范文 篇一高考是每个学生所面临的一次重要考试,它不仅仅考察学生的知识水平,更重要的...
浙江高考作文题点评【优选3篇... 浙江高考作文题点评 篇一在浙江高考作文题中,常常会出现一些与时代潮流和社会热点相关的话题。这些题目旨...
高考优秀范文详解语文32篇(... 高考优秀范文详解语文32篇 篇一:文学与人生的关系文学作为一门艺术,与人生有着密切的联系。在高考优秀...
江苏省高考作文(实用3篇) 江苏省高考作文 篇一:探索创新教育的价值与挑战创新教育是当今社会教育改革的热点议题之一。它以培养创新...
高考作文议论文时事素材(实用... 高考作文议论文时事素材 篇一标题:网络教育的优势与挑战随着互联网的迅猛发展,网络教育正逐渐成为教育领...
语文高考作文必备范文(推荐6... 语文高考作文必备范文 篇一关于传统文化的重要性传统文化是一个国家和民族的精神财富,它承载着历史的记忆...
2022高考作文规范范文【优... 2022高考作文规范范文 篇一高考作文规范范文随着2022年高考的临近,作为考生的我们需要了解并掌握...
新高考语文题目格式范文(优选... 新高考语文题目格式范文 篇一题目:《生活中的美好瞬间》导语:生活中,我们时常会遇到一些让人感到温暖和...
高考英语满分作文【通用6篇】 高考英语满分作文 篇一:如何提高英语口语能力英语口语能力在高考英语考试中占据重要的比重,但很多学生在...
关于让高考成绩再提高的方法(... 关于让高考成绩再提高的方法 篇一如何提高高考成绩?这是每位学生都关心的问题。高考成绩对于学生的未来发...
议论文人物故事写作素材15例... 议论文人物故事写作素材15例 篇一1. 父母的无私奉献 故事背景:主人公的父母为了供他上大学,...
教育部考试中心称不会取消全国... 教育部考试中心称不会取消全国统一高考 篇一近日,教育部考试中心发表声明称,不会取消全国统一高考。这一...
高考报考志愿个人陈述范文【最... 高考报考志愿个人陈述范文 篇一我的高中三年时光即将结束,我心中充满了对未来的期待和憧憬。回顾过去的学...
手握一滴水高考满分作文【精简... 手握一滴水高考满分作文 篇一探寻水的力量水,是生命之源,也是大自然最神奇的力量之一。曾经,我手握着一...
语文高考全国一卷优秀作文【精... 语文高考全国一卷优秀作文 篇一题目:诗意的人生人生如诗,每个人都是一首独特的诗篇。我们的人生是由一段...
高考作文经典素材:正能量【实... 高考作文经典素材:正能量 篇一正能量:改变人生的力量正能量是指积极向上的思想、激励人心的言行,具有积...
庚子年高考作文范文【精简6篇... 庚子年高考作文范文 篇一我的成长历程人生就像一场马拉松,每个人都要经历各种各样的挑战与困难。而我,也...
高考作文语文范文欣赏(优选6... 高考作文语文范文欣赏 篇一《人生的价值》人生自古以来就是一个永恒的话题,而关于人生的探讨与思考也从未...
北京高考作文题目(优选5篇) 北京高考作文题目 篇一新时代下的北京高考近年来,随着社会的进步和发展,新时代给北京高考带来了新的挑战...
历年经典高考满分作文【实用6... 历年经典高考满分作文 篇一:成长的意义成长是每个人都要经历的过程,它伴随着我们从孩提时代向成年人迈进...