内核通过/proc/diskstats 文件,将block层的一些重要数据以文件的形式呈现给用户。众多磁盘监测工具都依赖该文件,对其中数据进行计算统计,输出最终磁盘性能数据。近期做内核升级后,发现iostat统计的部分数据跟升级前有明显差异,尤其是%util,但整体性能并无明显变化,内核在对block数据的统计上做了什么修改呢?
io_ticks 表示系统有IO请求在被处理的时间,iostat基于此数据来计算%util,公式为%util=Δio_ticks/Δt, 用于表述磁盘的繁忙程度。由于目前大部分磁盘都支持并发IO, 该数据无法直接表示磁盘饱和度,但对于描述系统IO繁忙程度还是有参考价值的。测试发现设备内核从3.x升级至5.x后,%util下降很多,即使用dd,fio等工具压测%util 也只有50%不到。
首先看下不同版本内核关于此数据的说明:
Linux 3.x
Field 9 -- # of I/Os currently in progress
The only field that should go to zero. Incremented as requests are
given to appropriate struct request_queue and decremented as they finish.
Field 10 -- # of milliseconds spent doing I/Os
This field increases so long as field 9 is nonzero.
Linux 5.x
Field 9 -- # of I/Os currently in progress
The only field that should go to zero. Incremented as requests are
given to appropriate struct request_queue and decremented as they finish.
Field 10 -- # of milliseconds spent doing I/Os
This field increases so long as field 9 is nonzero.
Since 5.0 this field counts jiffies when at least one request was
started or completed. If request runs more than 2 jiffies then some
I/O time will not be accounted unless there are other requests.
较新版本内核对于io_ticks(Field 10)的定义多了一句解释,该数据在请求开始及结束时统计,如果请求超过2jiffies并且没有其他请求一些IO时间将不会被统计。
从数据说明看,新版本内核是有可能少统计一些io_ticks,再来看下内核具体实现。
老内核(3.x) 统计io_ticks的函数为part_round_stats_single()
static void part_round_stats_single(int cpu, struct hd_struct *part,
unsigned long now)
{
if (now == part->stamp)
return;
if (part_in_flight(part)) {
__part_stat_add(cpu, part, time_in_queue,
part_in_flight(part) * (now - part->stamp));
__part_stat_add(cpu, part, io_ticks, (now - part->stamp));
}
part->stamp = now;
}
在IO开始,合并,结束以及查询设备状态(/proc/diskstats,/sys/block/xxx/stat) 时调用。判断当前是否有IO请求在被处理(in_flight非0),若有IO请求则根据时间戳与当前时间差值累加io_ticks及time_in_queue,并记录此时的时间戳。
新内核(5.x)统计io_ticks的函数为update_io_ticks()
void update_io_ticks(struct hd_struct *part, unsigned long now)
{
unsigned long stamp;
again:
stamp = READ_ONCE(part->stamp);
if (unlikely(stamp != now)) {
if (likely(cmpxchg(&part->stamp, stamp, now) == stamp)) {
__part_stat_add(part, io_ticks, 1);
}
}
if (part->partno) {
part = &part_to_disk(part)->part0;
goto again;
}
}
仅在IO开始与结束时调用。不在判断in_flight, 每次io_ticks只累加1,并记录此时时间戳。
从代码来看,新版本内核的io_ticks只统计每个IO开始和结束最多2个jiffies(如果IO很快只统计1个jiffies),这看似很不准确。只有当磁盘性能很好,每个IO耗时2jiffies内,或者IO非常繁忙的系统io_ticks才会准。为什么会有这么迷的操作呢?git blame查了下update_io_ticks()的提交记录,发现了这个patch:
大致意思是为了减少性能开销,减少了对in_flight的判断,采用一种不太精确的统计方法。但对于新的统计算法为什么每次只累加1还是有疑问,为什么不能记录中间的时间呢?貌似也没有太多开销,正准备下手去改,发现了另一个patch:
已经有人发现并优化了这个问题,方法是利用不同参数区分IO开始和结束,记录io完整消耗时间,使得较慢的磁盘也可以准确统计该参数。
time_in_queue 是io_ticks的加权值,表示所有IO请求处理的总时间,由于目前大部分磁盘支持并发IO,该数值往往比绝对时间大。iostat用该数据计算avgqu-sz ,公式为avgqu-sz=Δtime_in_queue/Δt , 表示IO队列的平均请求数。
老内核(3.x)统计time_in_queue的函数与io_ticks一样part_round_stats_single()
static void part_round_stats_single(int cpu, struct hd_struct *part,
unsigned long now)
{
if (now == part->stamp)
return;
if (part_in_flight(part)) {
__part_stat_add(cpu, part, time_in_queue,
part_in_flight(part) * (now - part->stamp));
__part_stat_add(cpu, part, io_ticks, (now - part->stamp));
}
part->stamp = now;
}
统计方法是,每次累加in_flight乘以时间戳与当前时间差值,即对io_ticks和in_flight的加权统计。
新内核(5.x)在IO请求完成时blk_account_io_done()函数中统计time_in_queue。
void blk_account_io_done(struct request *req, u64 now)
{
/*
* Account IO completion. flush_rq isn't accounted as a
* normal IO on queueing nor completion. Accounting the
* containing request is enough.
*/
if (blk_do_io_stat(req) && !(req->rq_flags & RQF_FLUSH_SEQ)) {
const int sgrp = op_stat_group(req_op(req));
struct hd_struct *part;
part_stat_lock();
part = req->part;
update_io_ticks(part, jiffies);
part_stat_inc(part, ios[sgrp]);
part_stat_add(part, nsecs[sgrp], now - req->start_time_ns);
part_stat_add(part, time_in_queue, nsecs_to_jiffies64(now - req->start_time_ns));
part_dec_in_flight(req->q, part, rq_data_dir(req));
hd_struct_put(part);
part_stat_unlock();
}
}
统计方法是,每次累加每个IO请求的用时。
对于time_in_queue的统计,新老内核计算方法不同,但结果都是统计所有IO的处理时间总和,实际测试同一设备同样IO负载下不同内核该参数也无明显差异。
in_flight 表示当前设备中未完成的IO请求数量,由于是瞬时值通常统计工具不会用到,排查问题时可以关注。
老内核(3.x)使用part_inc_in_flight()和part_dec_in_flight()统计in_flight,IO请求开始时加1,完成时减1.
static inline void part_inc_in_flight(struct hd_struct *part, int rw)
{
atomic_inc(&part->in_flight[rw]);
if (part->partno)
atomic_inc(&part_to_disk(part)->part0.in_flight[rw]);
}
static inline void part_dec_in_flight(struct hd_struct *part, int rw)
{
atomic_dec(&part->in_flight[rw]);
if (part->partno)
atomic_dec(&part_to_disk(part)->part0.in_flight[rw]);
}
新内核(5.x) 仍保留了这两个函数,但会判断是否使用mutiqueue,若是mutiqueue就直接返回,不做统计。
void part_inc_in_flight(struct request_queue *q, struct hd_struct *part, int rw)
{
if (queue_is_mq(q))
return;
part_stat_local_inc(part, in_flight[rw]);
if (part->partno)
part_stat_local_inc(&part_to_disk(part)->part0, in_flight[rw]);
}
void part_dec_in_flight(struct request_queue *q, struct hd_struct *part, int rw)
{
if (queue_is_mq(q))
return;
part_stat_local_dec(part, in_flight[rw]);
if (part->partno)
part_stat_local_dec(&part_to_disk(part)->part0, in_flight[rw]);
}
新内核已废弃了单队列,所以in_flight基本不会被统计,当查询/proc/diskstats,/sys/block/xxx/stat时,会通过blk_mq_in_flight()函数直接计算。
static bool blk_mq_check_inflight(struct blk_mq_hw_ctx *hctx,
struct request *rq, void *priv,
bool reserved)
{
struct mq_inflight *mi = priv;
/*
* index[0] counts the specific partition that was asked for.
*/
if (rq->part == mi->part)
mi->inflight[0]++;
return true;
}
unsigned int blk_mq_in_flight(struct request_queue *q, struct hd_struct *part)
{
unsigned inflight[2];
struct mq_inflight mi = { .part = part, .inflight = inflight, };
inflight[0] = inflight[1] = 0;
blk_mq_queue_tag_busy_iter(q, blk_mq_check_inflight, &mi);
return inflight[0];
}
计算方法是,遍历所有处理中的IO请求,判断是否在当前查询的磁盘上。
新内核虽然没有统计in_flight,但当查询时通过计算也可实现同样的展示效果。
随着内核不断演进,block层代码变化颇大,各数据统计方法也变化颇多,总结一下有变动的数据:
文章浏览阅读3.8k次,点赞9次,收藏28次。直接上一个工作中碰到的问题,另外一个系统开启多线程调用我这边的接口,然后我这边会开启多线程批量查询第三方接口并且返回给调用方。使用的是两三年前别人遗留下来的方法,放到线上后发现确实是可以正常取到结果,但是一旦调用,CPU占用就直接100%(部署环境是win server服务器)。因此查看了下相关的老代码并使用JProfiler查看发现是在某个while循环的时候有问题。具体项目代码就不贴了,类似于下面这段代码。while(flag) {//your code;}这里的flag._main函数使用while(1)循环cpu占用99
文章浏览阅读347次。idea shift f6 快捷键无效_idea shift +f6快捷键不生效
文章浏览阅读135次。Ecmacript 中没有DOM 和 BOM核心模块Node为JavaScript提供了很多服务器级别,这些API绝大多数都被包装到了一个具名和核心模块中了,例如文件操作的 fs 核心模块 ,http服务构建的http 模块 path 路径操作模块 os 操作系统信息模块// 用来获取机器信息的var os = require('os')// 用来操作路径的var path = require('path')// 获取当前机器的 CPU 信息console.log(os.cpus._node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是
文章浏览阅读10w+次,点赞435次,收藏3.4k次。SPSS 22 下载安装过程7.6 方差分析与回归分析的SPSS实现7.6.1 SPSS软件概述1 SPSS版本与安装2 SPSS界面3 SPSS特点4 SPSS数据7.6.2 SPSS与方差分析1 单因素方差分析2 双因素方差分析7.6.3 SPSS与回归分析SPSS回归分析过程牙膏价格问题的回归分析_化工数学模型数据回归软件
文章浏览阅读7.5k次。如何利用hutool工具包实现邮件发送功能呢?1、首先引入hutool依赖<dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.7.19</version></dependency>2、编写邮件发送工具类package com.pc.c..._hutool发送邮件
文章浏览阅读867次,点赞2次,收藏2次。docker安装elasticsearch,elasticsearch-head,kibana,ik分词器安装方式基本有两种,一种是pull的方式,一种是Dockerfile的方式,由于pull的方式pull下来后还需配置许多东西且不便于复用,个人比较喜欢使用Dockerfile的方式所有docker支持的镜像基本都在https://hub.docker.com/docker的官网上能找到合..._docker安装kibana连接elasticsearch并且elasticsearch有密码
文章浏览阅读1.3w次,点赞57次,收藏92次。整理 | 郑丽媛出品 | CSDN(ID:CSDNnews)近年来,随着机器学习的兴起,有一门编程语言逐渐变得火热——Python。得益于其针对机器学习提供了大量开源框架和第三方模块,内置..._beeware
文章浏览阅读7.9k次。//// ViewController.swift// Day_10_Timer//// Created by dongqiangfei on 2018/10/15.// Copyright 2018年 飞飞. All rights reserved.//import UIKitclass ViewController: UIViewController { ..._swift timer 暂停
文章浏览阅读986次,点赞2次,收藏2次。1.硬性等待让当前线程暂停执行,应用场景:代码执行速度太快了,但是UI元素没有立马加载出来,造成两者不同步,这时候就可以让代码等待一下,再去执行找元素的动作线程休眠,强制等待 Thread.sleep(long mills)package com.example.demo;import org.junit.jupiter.api.Test;import org.openqa.selenium.By;import org.openqa.selenium.firefox.Firefox.._元素三大等待
文章浏览阅读3k次,点赞4次,收藏14次。Java软件工程师职位分析_java岗位分析
文章浏览阅读2k次。Java:Unreachable code的解决方法_java unreachable code
文章浏览阅读1w次。1、html中设置标签data-*的值 标题 11111 222222、点击获取当前标签的data-url的值$('dd').on('click', function() { var urlVal = $(this).data('ur_如何根据data-*属性获取对应的标签对象