/proc/diskstats还准吗?-程序员宅基地

技术标签: linux  内核  

内核通过/proc/diskstats 文件,将block层的一些重要数据以文件的形式呈现给用户。众多磁盘监测工具都依赖该文件,对其中数据进行计算统计,输出最终磁盘性能数据。近期做内核升级后,发现iostat统计的部分数据跟升级前有明显差异,尤其是%util,但整体性能并无明显变化,内核在对block数据的统计上做了什么修改呢?

 

io_ticks

io_ticks 表示系统有IO请求在被处理的时间,iostat基于此数据来计算%util,公式为%util=Δio_ticks/Δt, 用于表述磁盘的繁忙程度。由于目前大部分磁盘都支持并发IO, 该数据无法直接表示磁盘饱和度,但对于描述系统IO繁忙程度还是有参考价值的。测试发现设备内核从3.x升级至5.x后,%util下降很多,即使用dd,fio等工具压测%util 也只有50%不到。

首先看下不同版本内核关于此数据的说明:

Linux 3.x

Field  9 -- # of I/Os currently in progress
    The only field that should go to zero. Incremented as requests are
    given to appropriate struct request_queue and decremented as they finish.
Field 10 -- # of milliseconds spent doing I/Os
    This field increases so long as field 9 is nonzero.

Linux 5.x

Field  9 -- # of I/Os currently in progress
    The only field that should go to zero. Incremented as requests are
    given to appropriate struct request_queue and decremented as they finish.

Field 10 -- # of milliseconds spent doing I/Os
    This field increases so long as field 9 is nonzero.

    Since 5.0 this field counts jiffies when at least one request was
    started or completed. If request runs more than 2 jiffies then some
    I/O time will not be accounted unless there are other requests.

较新版本内核对于io_ticks(Field 10)的定义多了一句解释,该数据在请求开始及结束时统计,如果请求超过2jiffies并且没有其他请求一些IO时间将不会被统计。

从数据说明看,新版本内核是有可能少统计一些io_ticks,再来看下内核具体实现。

老内核(3.x) 统计io_ticks的函数为part_round_stats_single()

static void part_round_stats_single(int cpu, struct hd_struct *part,
				    unsigned long now)
{
	if (now == part->stamp)
		return;

	if (part_in_flight(part)) {
		__part_stat_add(cpu, part, time_in_queue,
				part_in_flight(part) * (now - part->stamp));
		__part_stat_add(cpu, part, io_ticks, (now - part->stamp));
	}
	part->stamp = now;
}

在IO开始,合并,结束以及查询设备状态(/proc/diskstats,/sys/block/xxx/stat) 时调用。判断当前是否有IO请求在被处理(in_flight非0),若有IO请求则根据时间戳与当前时间差值累加io_ticks及time_in_queue,并记录此时的时间戳。

新内核(5.x)统计io_ticks的函数为update_io_ticks()

void update_io_ticks(struct hd_struct *part, unsigned long now)
{
	unsigned long stamp;
again:
	stamp = READ_ONCE(part->stamp);
	if (unlikely(stamp != now)) {
		if (likely(cmpxchg(&part->stamp, stamp, now) == stamp)) {
			__part_stat_add(part, io_ticks, 1);
		}
	}
	if (part->partno) {
		part = &part_to_disk(part)->part0;
		goto again;
	}
}

仅在IO开始与结束时调用。不在判断in_flight, 每次io_ticks只累加1,并记录此时时间戳。

从代码来看,新版本内核的io_ticks只统计每个IO开始和结束最多2个jiffies(如果IO很快只统计1个jiffies),这看似很不准确。只有当磁盘性能很好,每个IO耗时2jiffies内,或者IO非常繁忙的系统io_ticks才会准。为什么会有这么迷的操作呢?git blame查了下update_io_ticks()的提交记录,发现了这个patch:

https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux.git/commit/block?id=5b18b5a737600fd20ba2045f320d5926ebbf341a

大致意思是为了减少性能开销,减少了对in_flight的判断,采用一种不太精确的统计方法。但对于新的统计算法为什么每次只累加1还是有疑问,为什么不能记录中间的时间呢?貌似也没有太多开销,正准备下手去改,发现了另一个patch:

https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux.git/commit/?id=2b8bd423614c595540eaadcfbc702afe8e155e50

已经有人发现并优化了这个问题,方法是利用不同参数区分IO开始和结束,记录io完整消耗时间,使得较慢的磁盘也可以准确统计该参数。

 

time_in_queue

time_in_queue 是io_ticks的加权值,表示所有IO请求处理的总时间,由于目前大部分磁盘支持并发IO,该数值往往比绝对时间大。iostat用该数据计算avgqu-sz ,公式为avgqu-sz=Δtime_in_queue/Δt , 表示IO队列的平均请求数。

老内核(3.x)统计time_in_queue的函数与io_ticks一样part_round_stats_single()

static void part_round_stats_single(int cpu, struct hd_struct *part,
				    unsigned long now)
{
	if (now == part->stamp)
		return;

	if (part_in_flight(part)) {
		__part_stat_add(cpu, part, time_in_queue,
				part_in_flight(part) * (now - part->stamp));
		__part_stat_add(cpu, part, io_ticks, (now - part->stamp));
	}
	part->stamp = now;
}

统计方法是,每次累加in_flight乘以时间戳与当前时间差值,即对io_ticks和in_flight的加权统计。

新内核(5.x)在IO请求完成时blk_account_io_done()函数中统计time_in_queue。

void blk_account_io_done(struct request *req, u64 now)
{
	/*
	 * Account IO completion.  flush_rq isn't accounted as a
	 * normal IO on queueing nor completion.  Accounting the
	 * containing request is enough.
	 */
	if (blk_do_io_stat(req) && !(req->rq_flags & RQF_FLUSH_SEQ)) {
		const int sgrp = op_stat_group(req_op(req));
		struct hd_struct *part;

		part_stat_lock();
		part = req->part;

		update_io_ticks(part, jiffies);
		part_stat_inc(part, ios[sgrp]);
		part_stat_add(part, nsecs[sgrp], now - req->start_time_ns);
		part_stat_add(part, time_in_queue, nsecs_to_jiffies64(now - req->start_time_ns));
		part_dec_in_flight(req->q, part, rq_data_dir(req));

		hd_struct_put(part);
		part_stat_unlock();
	}
}

统计方法是,每次累加每个IO请求的用时。

对于time_in_queue的统计,新老内核计算方法不同,但结果都是统计所有IO的处理时间总和,实际测试同一设备同样IO负载下不同内核该参数也无明显差异。

 

in_flight

in_flight 表示当前设备中未完成的IO请求数量,由于是瞬时值通常统计工具不会用到,排查问题时可以关注。

老内核(3.x)使用part_inc_in_flight()和part_dec_in_flight()统计in_flight,IO请求开始时加1,完成时减1.

static inline void part_inc_in_flight(struct hd_struct *part, int rw)
{
	atomic_inc(&part->in_flight[rw]);
	if (part->partno)
		atomic_inc(&part_to_disk(part)->part0.in_flight[rw]);
}

static inline void part_dec_in_flight(struct hd_struct *part, int rw)
{
	atomic_dec(&part->in_flight[rw]);
	if (part->partno)
		atomic_dec(&part_to_disk(part)->part0.in_flight[rw]);
}

新内核(5.x) 仍保留了这两个函数,但会判断是否使用mutiqueue,若是mutiqueue就直接返回,不做统计。

void part_inc_in_flight(struct request_queue *q, struct hd_struct *part, int rw)
{
	if (queue_is_mq(q))
		return;

	part_stat_local_inc(part, in_flight[rw]);
	if (part->partno)
		part_stat_local_inc(&part_to_disk(part)->part0, in_flight[rw]);
}

void part_dec_in_flight(struct request_queue *q, struct hd_struct *part, int rw)
{
	if (queue_is_mq(q))
		return;

	part_stat_local_dec(part, in_flight[rw]);
	if (part->partno)
		part_stat_local_dec(&part_to_disk(part)->part0, in_flight[rw]);
}

新内核已废弃了单队列,所以in_flight基本不会被统计,当查询/proc/diskstats,/sys/block/xxx/stat时,会通过blk_mq_in_flight()函数直接计算。

static bool blk_mq_check_inflight(struct blk_mq_hw_ctx *hctx,
				  struct request *rq, void *priv,
				  bool reserved)
{
	struct mq_inflight *mi = priv;

	/*
	 * index[0] counts the specific partition that was asked for.
	 */
	if (rq->part == mi->part)
		mi->inflight[0]++;

	return true;
}

unsigned int blk_mq_in_flight(struct request_queue *q, struct hd_struct *part)
{
	unsigned inflight[2];
	struct mq_inflight mi = { .part = part, .inflight = inflight, };

	inflight[0] = inflight[1] = 0;
	blk_mq_queue_tag_busy_iter(q, blk_mq_check_inflight, &mi);

	return inflight[0];
}

计算方法是,遍历所有处理中的IO请求,判断是否在当前查询的磁盘上。

新内核虽然没有统计in_flight,但当查询时通过计算也可实现同样的展示效果。

 

总结

随着内核不断演进,block层代码变化颇大,各数据统计方法也变化颇多,总结一下有变动的数据:

  • io_ticks, 改变统计方法, 不如老版本精确,已有优化patch。
  • time_in_queue , 改变统计方法,与老版本效果一致。
  • in_flight , IO处理时不做统计,查询时再计算,与老版本效果一致。

 

 

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_32740107/article/details/105725614

智能推荐

while循环&CPU占用率高问题深入分析与解决方案_main函数使用while(1)循环cpu占用99-程序员宅基地

文章浏览阅读3.8k次,点赞9次,收藏28次。直接上一个工作中碰到的问题,另外一个系统开启多线程调用我这边的接口,然后我这边会开启多线程批量查询第三方接口并且返回给调用方。使用的是两三年前别人遗留下来的方法,放到线上后发现确实是可以正常取到结果,但是一旦调用,CPU占用就直接100%(部署环境是win server服务器)。因此查看了下相关的老代码并使用JProfiler查看发现是在某个while循环的时候有问题。具体项目代码就不贴了,类似于下面这段代码。​​​​​​while(flag) {//your code;}这里的flag._main函数使用while(1)循环cpu占用99

【无标题】jetbrains idea shift f6不生效_idea shift +f6快捷键不生效-程序员宅基地

文章浏览阅读347次。idea shift f6 快捷键无效_idea shift +f6快捷键不生效

node.js学习笔记之Node中的核心模块_node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是-程序员宅基地

文章浏览阅读135次。Ecmacript 中没有DOM 和 BOM核心模块Node为JavaScript提供了很多服务器级别,这些API绝大多数都被包装到了一个具名和核心模块中了,例如文件操作的 fs 核心模块 ,http服务构建的http 模块 path 路径操作模块 os 操作系统信息模块// 用来获取机器信息的var os = require('os')// 用来操作路径的var path = require('path')// 获取当前机器的 CPU 信息console.log(os.cpus._node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是

数学建模【SPSS 下载-安装、方差分析与回归分析的SPSS实现(软件概述、方差分析、回归分析)】_化工数学模型数据回归软件-程序员宅基地

文章浏览阅读10w+次,点赞435次,收藏3.4k次。SPSS 22 下载安装过程7.6 方差分析与回归分析的SPSS实现7.6.1 SPSS软件概述1 SPSS版本与安装2 SPSS界面3 SPSS特点4 SPSS数据7.6.2 SPSS与方差分析1 单因素方差分析2 双因素方差分析7.6.3 SPSS与回归分析SPSS回归分析过程牙膏价格问题的回归分析_化工数学模型数据回归软件

利用hutool实现邮件发送功能_hutool发送邮件-程序员宅基地

文章浏览阅读7.5k次。如何利用hutool工具包实现邮件发送功能呢?1、首先引入hutool依赖<dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.7.19</version></dependency>2、编写邮件发送工具类package com.pc.c..._hutool发送邮件

docker安装elasticsearch,elasticsearch-head,kibana,ik分词器_docker安装kibana连接elasticsearch并且elasticsearch有密码-程序员宅基地

文章浏览阅读867次,点赞2次,收藏2次。docker安装elasticsearch,elasticsearch-head,kibana,ik分词器安装方式基本有两种,一种是pull的方式,一种是Dockerfile的方式,由于pull的方式pull下来后还需配置许多东西且不便于复用,个人比较喜欢使用Dockerfile的方式所有docker支持的镜像基本都在https://hub.docker.com/docker的官网上能找到合..._docker安装kibana连接elasticsearch并且elasticsearch有密码

随便推点

Python 攻克移动开发失败!_beeware-程序员宅基地

文章浏览阅读1.3w次,点赞57次,收藏92次。整理 | 郑丽媛出品 | CSDN(ID:CSDNnews)近年来,随着机器学习的兴起,有一门编程语言逐渐变得火热——Python。得益于其针对机器学习提供了大量开源框架和第三方模块,内置..._beeware

Swift4.0_Timer 的基本使用_swift timer 暂停-程序员宅基地

文章浏览阅读7.9k次。//// ViewController.swift// Day_10_Timer//// Created by dongqiangfei on 2018/10/15.// Copyright 2018年 飞飞. All rights reserved.//import UIKitclass ViewController: UIViewController { ..._swift timer 暂停

元素三大等待-程序员宅基地

文章浏览阅读986次,点赞2次,收藏2次。1.硬性等待让当前线程暂停执行,应用场景:代码执行速度太快了,但是UI元素没有立马加载出来,造成两者不同步,这时候就可以让代码等待一下,再去执行找元素的动作线程休眠,强制等待 Thread.sleep(long mills)package com.example.demo;import org.junit.jupiter.api.Test;import org.openqa.selenium.By;import org.openqa.selenium.firefox.Firefox.._元素三大等待

Java软件工程师职位分析_java岗位分析-程序员宅基地

文章浏览阅读3k次,点赞4次,收藏14次。Java软件工程师职位分析_java岗位分析

Java:Unreachable code的解决方法_java unreachable code-程序员宅基地

文章浏览阅读2k次。Java:Unreachable code的解决方法_java unreachable code

标签data-*自定义属性值和根据data属性值查找对应标签_如何根据data-*属性获取对应的标签对象-程序员宅基地

文章浏览阅读1w次。1、html中设置标签data-*的值 标题 11111 222222、点击获取当前标签的data-url的值$('dd').on('click', function() { var urlVal = $(this).data('ur_如何根据data-*属性获取对应的标签对象

推荐文章

热门文章

相关标签