解决排查 mongodb cpu使用率过高

摘要:
前言通过top命令,我们可以看到MongoDB的CPU利用率太高。如果CPU太高,数据读写和处理将异常缓慢,并且存在系统将终止进程的风险。99.9999%的这个问题可能是由用户的不合理使用造成的。本文从应用程序的角度描述如何解决MongoDB的CPU利用率问题。microcs_Running表示执行操作的时间,以微秒为单位。分析数据库慢请求MongoDB支持分析以记录慢查询日志,并记录请求在同一DB下对系统的执行情况。在配置文件集合中,它可以帮助我们优化sql,提高系统的稳定性和流畅性。
前言

通过 top 命令,可以看到 MongoDB 的 CPU 使用率过高,CPU 过高会导致数据读写、处理异常缓慢,还会出现被系统抹杀进程的风险,这个问题 99.9999% 的可能性是用户使用上不合理导致的,本文介绍如何从应用的角度如何排查 MongoDB CPU 利用率过高的问题。

分析数据库正在执行的请求

执行 db.currentOp() 命令,可以查看数据库当前正在执行的操作

该命令的输出示例如下:

{
        "desc" : "conn632530",
        "threadId" : "140298196924160",
        "connectionId" : 632530,
        "client" : "11.192.159.236:57052",
        "active" : true,
        "opid" : 1008837885,
        "secs_running" : 0,
        "microsecs_running" : NumberLong(70),
        "op" : "update",
        "ns" : "mygame.players",
        "query" : {
            "uid" : NumberLong(31577677)
        },
        "numYields" : 0,
        "locks" : {
            "Global" : "w",
            "Database" : "w",
            "Collection" : "w"
        },
        ....
    },

需要重点关注以下几个字段

字段返回值说明
client该请求是由哪个客户端发起的。
opid操作的唯一标识符。 说明 如果有需要,可以通过db.killOp(opid)直接终止该操作。
secs_running表示该操作已经执行的时间,单位为秒。如果该字段返回的值特别大,需要查看请求是否合理。
microsecs_running表示该操作已经执行的时间,单位为微秒。如果该字段返回的值特别大,需要查看请求是否合理。
ns该操作目标集合。
op表示操作的类型。通常是查询、插入、更新、删除中的一种。
locks跟锁相关的信息,详情请参见并发介绍
分析数据库慢请求

MongoDB 支持 profiling 记录慢查询日志功能,将请求的执行情况记录到同 DB 下的 system.profile 集合里,它可以帮助我们进行优化我们的 sql,并提高我们系统的稳定性和流畅性。

默认情况下是关闭的,我们可以在数据库级别上或者是节点级别上配置。

profiling 有3种模式,状态码及相关描述:

  • 0:表示关闭 profiling 慢查询,默认情况下
  • 1:表示超过阈值的查询收集,针对所有请求开启 profiling,将所有请求的执行都记录到 system.profile 集合
  • 2:为所有数据库开启慢查询记录,收集所有的数据 针对慢请求 profiling,将超过一定阈值的请求,记录到 system.profile 集合

MongoDB慢查询两种启动方式

通过 MongoDB shell 启用

为所有数据库开启慢查询记录

db.setProfilingLevel(2)

禁用慢查询

db.setProfilingLevel(0)

指定 test 数据库,并指定阈值慢查询 ,超过20毫秒的查询被记录

use test

db.setProfilingLevel(1, { slowms: 20 })

随机采集慢查询的百分比值,sampleRate 值默认为1,表示都采集,0.42 表示采集42%的内容

db.setProfilingLevel(1, { sampleRate: 0.42 })

查询慢查询级别和其它信息

db.getProfilingStatus()

仅返回慢查询级别

db.getProfilingLevel()

通过配置文件启用

在 ini 配置文件 mongodb.conf 添加以下参数, profile 参数是设置开启等级,slowms 是设置阈值

profile = 1

slowms = 300

在 YAML 文件配置

operationProfiling:
   mode: <string>  # 默认为 off,可选值 off、slowOp(对应上面的等级 1)、all(对应上面的等级 2)
   slowOpThresholdMs: <int> # 阈值,默认值为100,单位毫秒
   slowOpSampleRate: <double> #  随机采集慢查询的百分比值,sampleRate 值默认为1,表示都采集,0.42 表示采集42%的内容

常用命令和示例

# 查询慢请求日志
db.system.profile.find().pretty()

# 查询最近的10个慢查询日志
db.system.profile.find().limit(10).sort( { ts : -1 } ).pretty()

# 查询除命令类型为 command 的日志
db.system.profile.find( { op: { $ne : 'command' } } ).pretty()

# 查询数据库为 mydb 集合为 test 的 日志
db.system.profile.find( { ns : 'mydb.test' } ).pretty()

# 查询 低于 5毫秒的日志
db.system.profile.find( { millis : { $gt : 5 } } ).pretty()

# 查询时间从 2012-12-09 3点整到 2012-12-09 3点40分之间的日志
db.system.profile.find({
  ts : {
    $gt: new ISODate("2012-12-09T03:00:00Z"),
    $lt: new ISODate("2012-12-09T03:40:00Z")
  }
}).pretty()

MongoDB慢日志解析

官方文档:https://docs.mongodb.com/manual/reference/database-profiler/index.html

{
   "op" : "query",   # 操作类型,值可为command、count、distinct、geoNear、getMore、group、insert、mapReduce、query、remove、update
   "ns" : "test.report", # 操作的数据库和集合
   "command" : {     # 命令
      "find" : "report",  # 操作的集合
      "filter" : { "a" : { "$lte" : 500 } }, # 查询条件
      "lsid" : {    
         "id" : UUID("5ccd5b81-b023-41f3-8959-bf99ed696ce9") #用户的会话id
      },
      "$db" : "test"  # 操作的数据库
   },
   "cursorid" : 33629063128,  # query和getmore 的游标id
   "keysExamined" : 101, # MongoDB为执行操作而扫描的索引键的数量
   "docsExamined" : 101, # MongoDB为了执行操作而扫描的集合中的文档数。
   "numYield" : 2, # 让步次数,操作时让其他的操作完成的次数。
   "nreturned" : 101, # 操作返回的文档数
   "queryHash" : "811451DD", # 查询的hash值
   "planCacheKey" : "759981BA", 
   "locks" : {  # 操作期间的锁和所的类型
      "Global" : {  #表示全局锁定
         "acquireCount" : { #锁定的次数
            "r" : NumberLong(3)  # 表示共享锁 
         }
      },
      "Database" : {   # 数据库锁
         "acquireCount" : { "r" : NumberLong(1) },
         "acquireWaitCount" : { "r" : NumberLong(1) },
         "timeAcquiringMicros" : { "r" : NumberLong(69130694) }
      },
      "Collection" : {  # 集合锁
         "acquireCount" : { "r" : NumberLong(1) }
      }
   },
   "storage" : { # 储存
      "data" : {
         "bytesRead" : NumberLong(14736), #操作 从磁盘放到缓存的数据的字节数
         "timeReadingMicros" : NumberLong(17) # 操作 花费在磁盘读取的时间,以微妙为单位
      }
   },
   "responseLength" : 1305014, # 操作返回结果的文档长度,单位为字节
   "protocol" : "op_msg", # 消息的协议
   "millis" : 69132, # 从 MongoDB 操作开始到结束耗费的时间
   "planSummary" : "IXSCAN { a: 1, _id: -1 }",  # 摘要
   "execStats" : {  # 操作执行过程中的详细信息
      "stage" : "FETCH", # 操作形式 ,COLLSCAN 用于集合扫描,IXSCAN 用于扫描索引键,FETCH 用于检索文档
      "nReturned" : 101, # 返回的文档数量
      "executionTimeMillisEstimate" : 0,
      "works" : 101,
      "advanced" : 101,
      "needTime" : 0,
      "needYield" : 0,
      "saveState" : 3,
      "restoreState" : 2,
      "isEOF" : 0,
      "invalidates" : 0,
      "docsExamined" : 101,
      "alreadyHasObj" : 0,
      "inputStage" : {
         ...
      }
   },
   "ts" : ISODate("2019-01-14T16:57:33.450Z"), #操作的时间戳
   "client" : "127.0.0.1",  # 客户端的ip
   "appName" : "MongoDB Shell", #客户端应用标识符
   "allUsers" : [
      {
         "user" : "someuser", # 用户
         "db" : "admin"  # 验证的数据库
      }
   ],
   "user" : "someuser@admin"  # 经过验证的用户
}

CPU杀手1:全表扫描
全集合(表)扫描 COLLSCAN,当一个查询(或更新、删除)请求需要全表扫描时,是非常耗CPU资源的,所以当你在 system.profile 集合 或者 日志文件发现 COLLSCAN 关键字时,就得注意了,很可能就是这些查询吃掉了你的 CPU 资源;确认一下,如果这种请求比较频繁,最好是针对查询的字段建立索引来优化。

一个查询扫描了多少文档,可查看 system.profile 里的 docsExamined 的值,该值越大,请求CPU开销越大。

关键字:COLLSCAN、 docsExamined

CPU杀手2:不合理的索引
有的时候,请求即使查询走了索引,执行也很慢,通常是因为合理建立不太合理(或者是匹配的结果本身就很多,这样即使走索引,请求开销也不会优化很多)。

通过查看 keysExamined 字段,可以查看到一个使用了索引的查询,扫描了多少条索引。该值越大,CPU开销越大。

如果索引建立的不太合理,或者是匹配的结果很多。这样即使使用索引,请求开销也不会优化很多,执行的速度也会很慢。

如下所示,假设某个集合的数据,x字段的取值很少(假设只有1、2),而y字段的取值很丰富。

{ x: 1, y: 1 }
{ x: 1, y: 2 }
{ x: 1, y: 3 }
......
{ x: 1, y: 100000} 
{ x: 2, y: 1 }
{ x: 2, y: 2 }
{ x: 2, y: 3 }
......
{ x: 1, y: 100000} 

要实现 {x: 1: y: 2} 这样的查询

db.createIndex( {x: 1} )         效果不好,因为x相同取值太多
db.createIndex( {x: 1, y: 1} )   效果不好,因为x相同取值太多
db.createIndex( {y: 1 } )        效果好,因为y相同取值很少
db.createIndex( {y: 1, x: 1 } )  效果好,因为y相同取值少

一个走索引的查询,扫描了多少条索引,可查看 system.profile 里的 keysExamined 字段,该值越大,CPU 开销越大。

关键字:IXSCAN、keysExamined

  • 索引不是越多越好,索引过多会影响写入、更新的性能。
  • 如果您的应用偏向于写操作,索引可能会影响性能。

CPU杀手3:大量数据排序
当查询请求里包含排序的时候,如果排序无法通过索引满足,MongoDB 会在内存李结果进行排序,而排序这个动作本身是非常耗 CPU 资源的,优化的方法仍然是建立索引,对经常需要排序的字段,建立索引。

当你在 system.profile 集合 或者 日志文件发现 SORT 关键字时,就可以考虑通过索引来优化排序。当请求包含排序阶段时, system.profile 里的 hasSortStage 字段会为 true

关键字:SORT、hasSortStage

其他还有诸如建索引,aggregationv 等操作也可能非常耗 CPU 资源,但本质上也是上述几种场景;建索引需要全表扫描,而 vaggeregation 也是遍历、查询、更新、排序等动作的组合。

服务能力评估

经过上述分析数据库正在执行的请求和分析数据库慢请求两轮优化之后,你发现整个数据库的查询非常合理,所有的请求都是高效的走了索引,基本没有优化的空间了,那么很可能是你机器的服务能力已经达到上限了,应该升级配置了(或者通过 sharding 扩展)。

当然最好的情况时,提前对 MongoDB 进行测试,了解在你的场景下,对应的服务能力上限,以便及时扩容、升级,而不是到 CPU 资源用满,业务已经完全撑不住的时候才去做评估。

巨人的肩膀

https://www.cnblogs.com/operationhome/p/10728654.html
https://help.aliyun.com/document_detail/62224.html
https://mongoing.com/archives/3998

免责声明:文章转载自《解决排查 mongodb cpu使用率过高》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇Unity的SpriteAtlas实践Windows Thin PC 激活方法下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

MongoDB数据创建与使用

MongoDB数据创建与使用 创建数据库代码功能:读取本地文本文件,并保存到数据库中 import pymongo #连接mongo数据库 client = pymongo.MongoClient('localhost',27017) #创建数据库 walden = client['walden'] #创建表 sheet_tab = walden['s...

MongoDB sharding分片

MongoDB sharding分片 有了副本集为什么要用分片?分片(一个数据 存放在三个地方 共同存储为一个整体 类似于raid0的存储方式)1、副本集利用率不高2、主库的读写压力大优点:资源利用率高了读写压力负载均衡横向水平扩展缺点:理想状态下需要的机器比较多配置和运维都变的及其复杂一定要提前规划好,一旦建立后再想改变架构就变得困难了 分片的原理1、...

远程连接ubuntu的MongoDB遇到的坑

首先连接不上,先查看云服务器上的安全组是否添加了对应的端口 如果打开了,那么久查看MongoDB是否允许远程连接 # mongod.conf # for documentation of all options, see: # http://docs.mongodb.org/manual/reference/configuration-optio...

【MongoDB】关于Mongodb的学习与总结

 直接去看mongodb官网的文档学习是最快捷的途径。链接如下:https://docs.mongodb.com/manual/tutorial/getting-started/ 一、基础概念 Mongodb是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库中应用功能最丰富的,最像关系数据库的数据库。它支持的数据结构非常松散,是类似json的bj...

es机器监控x-pack导致的监控存储过大的问题

https://blog.csdn.net/qq_36317804/article/details/103288642 最近发现磁盘的占用率趋高,打开可视化工具head查看了之后发现,es实例中生成了好多类似monitoring-es-6-2019.11.27这个的节点。 ##查询集群总的磁盘使用情况 curl -u elastic -XGET 'loca...

ElasticSearch 内存那点事【转】

“该给ES分配多少内存?” “JVM参数如何优化?““为何我的Heap占用这么高?”“为何经常有某个field的数据量超出内存限制的异常?““为何感觉上没多少数据,也会经常Out Of Memory?”以上问题,显然没有一个统一的数学公式能够给出答案。 和数据库类似,ES对于内存的消耗,和很多因素相关,诸如数据总量、mapping设置、查询方式、查询频度等...