Ceph 问题记录:MDSs report oversized cache / clients failing to respond to cache pressure_mdsscsp01340(mds.0): client scsp01649:mail failing-程序员宅基地

技术标签: ceph  nautilus  mds  

硬件环境

  • 服务器数量:7
  • CPU:Intel Xeon Gold 6130 @ 2.10GHz * 2
  • 内存:128GB
  • 硬盘:1.8TB HDD * 18 , 800GB SSD * 4
  • 网卡:Intel X722 10G 网卡,双口绑定

软件环境

  • 系统:RHEL7.4
  • Kernel:3.10.0-862.14.4.el7.x86_64
  • Ceph 版本:Ceph Nautilus 14.2.2
  • nfs-ganesha 版本:2.8.1.2
  • vdbench 版本:vdbench50407

测试过程

  1. 新建 ceph fs 存储池,采用三副本,整个存储池可用空间约为 70TB
  2. 使用 ceph-fuse 挂载到本地
  3. 使用 vdbench 填充数据
填充参数:
depth=4,width=4,files=30000,size=4m
即一共 4**4=256 个目录,4**4*30000=7680000 个文件
总数据量 7680000*4MB=30720000MB,约为 30TB,占存储可用空间的一半。
  1. 填充完成后使用 nfs-ganesha 挂载到本地目录
  2. vdbench 进行 1M 和 4K 的读写测试

遇到问题

  1. 集群出现 warning
    health: HEALTH_WARN
            1 MDSs report oversized cache
            1 clients failing to respond to cache pressure
  1. 检测发现 ceph-mds 内存占用达到 17GB
top - 10:20:25 up 2 days, 18:12,  2 users,  load average: 31.00, 27.43, 22.01
Tasks: 839 total,   2 running, 837 sleeping,   0 stopped,   0 zombie
%Cpu(s): 19.5 us,  1.8 sy,  0.0 ni, 64.1 id, 14.4 wa,  0.0 hi,  0.1 si,  0.0 st
KiB Mem : 13147865+total,  6555780 free, 37243688 used, 87679192 buff/cache
KiB Swap:        0 total,        0 free,        0 used. 80960928 avail Mem

    PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
 202207 ceph      20   0 17.814g 0.017t  11244 S  20.1 13.9 172:43.11 ceph-mds
 206625 root      20   0 9146480 2.162g   8080 S 205.6  1.7   1082:52 ganesha.nfsd
2467822 root      20   0 8656960 1.112g  13060 S  1080  0.9 124:33.83 java
 184565 ceph      20   0 1360896 902028  12264 S   1.0  0.7  37:49.04 ceph-mon
 196099 ceph      20   0 2007264 800296   7276 S   1.0  0.6  75:10.36 ceph-osd
 192308 ceph      20   0 2098324 748500   7904 S   1.0  0.6  89:43.63 ceph-osd
 193257 ceph      20   0 2076836 744500   7292 S   0.7  0.6  76:48.09 ceph-osd
 191828 ceph      20   0 2072040 723760   7644 S   0.3  0.6  80:59.83 ceph-osd
 199075 ceph      20   0 2005936 723612   7268 S   0.3  0.6  68:55.24 ceph-osd
  1. 检查 ceph mds 中有 400多万的 inodes
[root@node-mds01 vdbench50407]# ceph daemon mds.node-mds1 perf dump mds
{
    "mds": {
        "request": 25344415,
        "reply": 25344415,
        "reply_latency": {
            "avgcount": 25344415,
            "sum": 4242.973167343,
            "avgtime": 0.000167412
        },
        "forward": 0,
        "dir_fetch": 24384,
        "dir_commit": 30030,
        "dir_split": 256,
        "dir_merge": 0,
        "inode_max": 2147483647,
        "inodes": 4507742,
        "inodes_top": 3081334,
        "inodes_bottom": 1426151,
        "inodes_pin_tail": 257,
        "inodes_pinned": 105836,
        "inodes_expired": 55219148,
        "inodes_with_caps": 105572,
        "caps": 105583,
        "subtrees": 2,
        "traverse": 33307765,
        "traverse_hit": 9827901,
        "traverse_forward": 0,
        "traverse_discover": 0,
        "traverse_dir_fetch": 24371,
        "traverse_remote_ino": 0,
        "traverse_lock": 0,
        "load_cent": 207075,
        "q": 43,
        "exported": 0,
        "exported_inodes": 0,
        "imported": 0,
        "imported_inodes": 0,
        "openino_dir_fetch": 0,
        "openino_backtrace_fetch": 0,
        "openino_peer_discover": 0
    }
}
  1. ceph mds 实时性能监控中显示有超过500万的 inodes
[root@node-mds01 vdbench50407]# ceph daemonperf mds.node-mds01
---------------mds---------------- --mds_cache--- ------mds_log------ -mds_mem- ----mds_server----- mds_ -----objecter------ purg
req  rlat fwd  inos caps exi  imi |stry recy recd|subm evts segs repl|ino  dn  |hcr  hcs  hsr  cre |sess|actv rd   wr   rdwr|purg|
  0    0    0  5.4M 105k   0    0 |  0    0    0 |  0   89k 130    0 |5.4M 5.4M|  0    0    0    0 |  3 |  0    0    0    0 |  0
 65   13    0  5.4M 105k   0    0 |  0    0    0 | 81   88k 130    0 |5.4M 5.4M| 65    0    0    0 |  3 |  0    9   46    0 |  0
 75    2    0  5.4M 105k   0    0 |  0    0    0 | 70   88k 130    0 |5.4M 5.4M| 75    0    0    0 |  3 |  0    6   37    0 |  0
 73    4    0  5.4M 105k   0    0 |  0    0    0 | 77   88k 130    0 |5.4M 5.4M| 73    0    0    0 |  3 |  0    8   37    0 |  0
 82    4    0  5.4M 105k   0    0 |  0    0    0 | 81   88k 130    0 |5.4M 5.4M| 82    0    0    0 |  3 |  0   12   41    0 |  0
 70    6    0  5.5M 105k   0    0 |  0    0    0 | 73   88k 130    0 |5.5M 5.5M| 70    0    0    0 |  3 |  0   15   35    0 |  0
 72   22    0  5.4M 105k   0    0 |  0    0    0 |100   88k 130    0 |5.4M 5.4M| 72    0    0    0 |  3 |  0   11   68    0 |  0
 77    4    0  5.5M 105k   0    0 |  0    0    0 | 75   89k 130    0 |5.5M 5.5M| 77    0    0    0 |  3 |  0    9   39    0 |  0
 71    6    0  5.5M 105k   0    0 |  0    0    0 | 75   89k 130    0 |5.5M 5.5M| 71    0    0    0 |  3 |  0   13   36    0 |  0
 75    3    0  5.5M 105k   0    0 |  0    0    0 | 74   89k 130    0 |5.5M 5.5M| 75    0    0    0 |  3 |  0    8   38    0 |  0
 74    4    0  5.6M 105k   0    0 |  0    0    0 | 74   89k 130    0 |5.6M 5.6M| 74    0    0    0 |  3 |  0   10   37    0 |  0
 74   19    0  5.5M 105k   0    0 |  0    0    0 |128   89k 129    0 |5.5M 5.5M| 74    0    0    0 |  3 |  1   15   88    0 |  0
 70    7    0  5.6M 105k   0    0 |  0    0    0 | 68   89k 129    0 |5.6M 5.6M| 70    0    0    0 |  3 |  0   13   36    0 |  0
 74    3    0  5.6M 105k   0    0 |  0    0    0 | 77   89k 129    0 |5.6M 5.6M| 74    0    0    0 |  3 |  0    8   37    0 |  0
 12    4    0  5.6M 105k   0    0 |  0    0    0 | 44   89k 129    0 |5.6M 5.6M| 12    0    0    0 |  3 |  0    2    6    0 |  0
  0    0    0  5.6M 105k   0    0 |  0    0    0 | 38   89k 129    0 |5.6M 5.6M|  0    0    0    0 |  3 |  0    0    0    0 |  0
  1. 根据网络上的资料,检查 mds_cache_memory_limit 值为 1GB,报警阈值为 1.5(即达到 1.5 倍时产生告警)。
[root@node-mds01 vdbench50407]# ceph daemon mds.node-mds01 config show | grep mds_cache
    "mds_cache_memory_limit": "1073741824",
    "mds_cache_mid": "0.700000",
    "mds_cache_reservation": "0.050000",
    "mds_cache_size": "0",
    "mds_cache_trim_decay_rate": "1.000000",
    "mds_cache_trim_threshold": "65536",
[root@node-mds01 vdbench50407]# ceph daemon mds.node-mds01 config show | grep mds_health
    "mds_health_cache_threshold": "1.500000",
    "mds_health_summarize_threshold": "10",
[root@node-mds01 vdbench50407]#

解决问题

扩大 mds_cache_memory_limit 到 10GB 后,再次测试,未出现 warn。

  1. 使用命令行修改
ceph daemon mds.node-mds01 config set mds_cache_memory_limit 10737418240
  1. 修改 ceph.conf 配置文件
# used by cephfs
[mds]
mds cache memory limit = 10737418240

ansible cephall -m copy -a 'src=/etc/ceph/ceph.conf dest=/etc/ceph/ceph.conf owner=ceph group=ceph mode=0644'

systemctl restart ceph-mds@`hostname`

注意:

  • 在只填充 1TB 数据时,也进行过测试,未出现 warn。说明文件数量的多少与 mds 的内存占用正相关。
  • 在 Ceph Nautilus 版本中,提高了 MDS 在大 cache 下的稳定性。官方文档:V14.2.0 NAUTILUS RELEASE NOTE。因此在 Ceph Luminous 版本中不一定适用此方法。

参考资料分析

  1. 官方文档资料:WORKING SET SIZE

The MDS acts as a cache for the metadata stored in RADOS. Metadata performance is very different for workloads whose metadata fits within that cache.
If your workload has more files than fit in your cache (configured using mds_cache_memory_limit or mds_cache_size settings), then make sure you test it appropriately: don’t test your system with a small number of files and then expect equivalent performance when you move to a much larger number of files.

大概意思: MDS 作为 RADOS 中的 metadata 的 cache。当在 cacha 不同时的 workload,metadata 的性能也非常不一样。如果 workload 中文件数量超过了 cache 的合适值(使用 mds_cache_memory_limit 控制),那么要确保进行充分测试。不能使用少量文件测试的性能,来等价于超大量的文件。

  1. 参考资料二:里面提到了文件数量巨大时,会出现此错误。

  2. 参考资料三:翻译了此问题的官方解释:客户端不响应服务端释放缓存的请求才造成此问题。

  3. 官方文档:Understanding MDS Cache Size Limits:说明 MDS cache limit 的原理,并不是真限制 cache ,超过阈值的 1.5 倍时会尝试回收,并给出告警。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/zzboat0422/article/details/98771817

智能推荐

Docker 快速上手学习入门教程_docker菜鸟教程-程序员宅基地

文章浏览阅读2.5w次,点赞6次,收藏50次。官方解释是,docker 容器是机器上的沙盒进程,它与主机上的所有其他进程隔离。所以容器只是操作系统中被隔离开来的一个进程,所谓的容器化,其实也只是对操作系统进行欺骗的一种语法糖。_docker菜鸟教程

电脑技巧:Windows系统原版纯净软件必备的两个网站_msdn我告诉你-程序员宅基地

文章浏览阅读5.7k次,点赞3次,收藏14次。该如何避免的,今天小编给大家推荐两个下载Windows系统官方软件的资源网站,可以杜绝软件捆绑等行为。该站提供了丰富的Windows官方技术资源,比较重要的有MSDN技术资源文档库、官方工具和资源、应用程序、开发人员工具(Visual Studio 、SQLServer等等)、系统镜像、设计人员工具等。总的来说,这两个都是非常优秀的Windows系统镜像资源站,提供了丰富的Windows系统镜像资源,并且保证了资源的纯净和安全性,有需要的朋友可以去了解一下。这个非常实用的资源网站的创建者是国内的一个网友。_msdn我告诉你

vue2封装对话框el-dialog组件_<el-dialog 封装成组件 vue2-程序员宅基地

文章浏览阅读1.2k次。vue2封装对话框el-dialog组件_

MFC 文本框换行_c++ mfc同一框内输入二行怎么换行-程序员宅基地

文章浏览阅读4.7k次,点赞5次,收藏6次。MFC 文本框换行 标签: it mfc 文本框1.将Multiline属性设置为True2.换行是使用"\r\n" (宽字符串为L"\r\n")3.如果需要编辑并且按Enter键换行,还要将 Want Return 设置为 True4.如果需要垂直滚动条的话将Vertical Scroll属性设置为True,需要水平滚动条的话将Horizontal Scroll属性设_c++ mfc同一框内输入二行怎么换行

redis-desktop-manager无法连接redis-server的解决方法_redis-server doesn't support auth command or ismis-程序员宅基地

文章浏览阅读832次。检查Linux是否是否开启所需端口,默认为6379,若未打开,将其开启:以root用户执行iptables -I INPUT -p tcp --dport 6379 -j ACCEPT如果还是未能解决,修改redis.conf,修改主机地址:bind 192.168.85.**;然后使用该配置文件,重新启动Redis服务./redis-server redis.conf..._redis-server doesn't support auth command or ismisconfigured. try

实验四 数据选择器及其应用-程序员宅基地

文章浏览阅读4.9k次。济大数电实验报告_数据选择器及其应用

随便推点

灰色预测模型matlab_MATLAB实战|基于灰色预测河南省社会消费品零售总额预测-程序员宅基地

文章浏览阅读236次。1研究内容消费在生产中占据十分重要的地位,是生产的最终目的和动力,是保持省内经济稳定快速发展的核心要素。预测河南省社会消费品零售总额,是进行宏观经济调控和消费体制改变创新的基础,是河南省内人民对美好的全面和谐社会的追求的要求,保持河南省经济稳定和可持续发展具有重要意义。本文建立灰色预测模型,利用MATLAB软件,预测出2019年~2023年河南省社会消费品零售总额预测值分别为21881...._灰色预测模型用什么软件

log4qt-程序员宅基地

文章浏览阅读1.2k次。12.4-在Qt中使用Log4Qt输出Log文件,看这一篇就足够了一、为啥要使用第三方Log库,而不用平台自带的Log库二、Log4j系列库的功能介绍与基本概念三、Log4Qt库的基本介绍四、将Log4qt组装成为一个单独模块五、使用配置文件的方式配置Log4Qt六、使用代码的方式配置Log4Qt七、在Qt工程中引入Log4Qt库模块的方法八、获取示例中的源代码一、为啥要使用第三方Log库,而不用平台自带的Log库首先要说明的是,在平时开发和调试中开发平台自带的“打印输出”已经足够了。但_log4qt

100种思维模型之全局观思维模型-67_计算机中对于全局观的-程序员宅基地

文章浏览阅读786次。全局观思维模型,一个教我们由点到线,由线到面,再由面到体,不断的放大格局去思考问题的思维模型。_计算机中对于全局观的

线程间控制之CountDownLatch和CyclicBarrier使用介绍_countdownluach于cyclicbarrier的用法-程序员宅基地

文章浏览阅读330次。一、CountDownLatch介绍CountDownLatch采用减法计算;是一个同步辅助工具类和CyclicBarrier类功能类似,允许一个或多个线程等待,直到在其他线程中执行的一组操作完成。二、CountDownLatch俩种应用场景: 场景一:所有线程在等待开始信号(startSignal.await()),主流程发出开始信号通知,既执行startSignal.countDown()方法后;所有线程才开始执行;每个线程执行完发出做完信号,既执行do..._countdownluach于cyclicbarrier的用法

自动化监控系统Prometheus&Grafana_-自动化监控系统prometheus&grafana实战-程序员宅基地

文章浏览阅读508次。Prometheus 算是一个全能型选手,原生支持容器监控,当然监控传统应用也不是吃干饭的,所以就是容器和非容器他都支持,所有的监控系统都具备这个流程,_-自动化监控系统prometheus&grafana实战

React 组件封装之 Search 搜索_react search-程序员宅基地

文章浏览阅读4.7k次。输入关键字,可以通过键盘的搜索按钮完成搜索功能。_react search