tencent cloud

容器服务

动态与公告
产品动态
公告
产品发布记录
产品简介
产品概述
产品优势
产品架构
应用场景
产品功能
基本概念
原生 Kubernetes 名词对照
容器服务高危操作
地域和可用区
开源组件
购买指南
购买指引
购买 TKE 标准集群
购买原生节点
购买超级节点
快速入门
新手指引
快速创建一个标准集群
入门示例
容器应用部署 Check List
集群配置
标准集群概述
集群管理
网络管理
存储管理
节点管理
GPU 资源管理
远程终端
应用配置
工作负载管理
服务和配置管理
组件和应用管理
弹性伸缩
容器登录方式
可观测配置
运维可观测性
成本洞察和优化
调度配置
调度组件概述
资源利用率优化调度
业务优先级保障调度
Qos 感知调度
安全和稳定性
容器服务安全组设置
身份验证和授权
应用安全
多集群管理
计划升级
备份中心
云原生服务指南
云原生 etcd
Prometheus 监控服务
TKE Serverless 集群指南
TKE 注册集群指南
实践教程
集群
Serverless 集群
调度
安全
服务部署
网络
发布
日志
监控
运维
Terraform
DevOps
弹性伸缩
容器化
微服务
成本管理
混合云
AI
故障处理
节点磁盘爆满排障处理
节点高负载排障处理
节点内存碎片化排障处理
集群 DNS 解析异常排障处理
集群 Kube-Proxy 异常排障处理
集群 API Server 网络无法访问排障处理
Service&Ingress 网络无法访问排障处理
Service&Ingress 常见报错和处理
Nginx Ingress 偶现 Connection Refused
CLB Ingress 创建报错排障处理
Pod 网络无法访问排查处理
Pod 状态异常与处理措施
授权腾讯云售后运维排障
CLB 回环问题
API 文档
History
Introduction
API Category
Making API Requests
Elastic Cluster APIs
Resource Reserved Coupon APIs
Cluster APIs
Third-party Node APIs
Relevant APIs for Addon
Network APIs
Node APIs
Node Pool APIs
TKE Edge Cluster APIs
Cloud Native Monitoring APIs
Scaling group APIs
Super Node APIs
Other APIs
Data Types
Error Codes
TKE API 2022-05-01
常见问题
TKE 标准集群
TKE Serverless 集群
运维类
隐患处理
服务类
镜像仓库类
远程终端类
事件类
资源管理类
服务协议
TKE Service Level Agreement
TKE Serverless Service Level Agreement
联系我们
词汇表

磁盘 IO 精细调度

PDF
聚焦模式
字号
最后更新时间: 2024-12-24 15:48:01
磁盘 IO 精细调度能力提供了一系列功能,保证业务磁盘方面的服务质量保证。灵活限制容器对磁盘传输的使用量。

使用限制

1. 部署 QoS Agent
2. 在集群里的组件管理页面,找到部署成功的 QoS Agent,单击右侧的更新配置
3. 在修改 QoS Agent 的组件配置页面,勾选磁盘 IO QoS 增强
4. 输入参数指定限制的磁盘名称,如下图所示,可输入多个:



注意:
1. 磁盘名要符合实际设备名称,获取节点磁盘名称的方式请参见 如何确定节点的磁盘名
2. 在控制台输入时,每次输入一个磁盘设备的名称,请单击添加,增加新的磁盘名称。请勿一次性输入多个磁盘名称。
3. 如果节点上缺少对应的磁盘名,则磁盘 IO 精细调度无法生效。
4. 非原生不支持该功能,请确保集群中有原生节点,并且配置了磁盘 IO 限制的 Pod 调度到了原生节点上。
5. 单击完成

功能1:磁盘 IOPS 限制(direct IO + buffer IO)

1. 根据上述使用限制部署组件、打开相关开关、输入相关磁盘名称。
2. 部署业务。
3. 部署关联该业务的 PodQOS 对象,选择需要作用的业务,示例如下:
apiVersion: ensurance.crane.io/v1alpha1
kind: PodQOS
metadata:
name: a
spec:
labelSelector:
matchLabels:
k8s-app: a # 选择业务的 Label
resourceQOS:
diskIOQOS:
diskIOLimit:
readIOps: 1024 # readIOps 代表限制 Pod 读 IO 的量,单位为 IOPS/s
writeIOps: 1024 # writeIOps 代表限制 Pod 写 IO 的量,单位为 IOPS/s

针对 buffer IO 的限速机制

由于低版本内核或 cgroup v1 对 Buffer IO 无法有效限速,有可能造成 Buffer IO 干扰业务正常 IO(数据库场景经常使用direct IO)。TKE 基于 cgroup v1 提供了 Buffer IO 限速功能。基于 cgroup v2 的 Buffer IO 限速和上游内核保持一致。
cgroup v1 无法支持限速的主要原因在于异步刷脏页的时候,内核无法得知这个 IO 应该提交给哪个 blkio cgroup。示例如下:
img


为了解决这个记账问题,TKE 将 page cache 所属的 cgroup 和对应的 blkio cgroup 进行绑定。之后异步刷盘时,内核线程便可以确定目标 blkio cgroup。

功能2:磁盘 BPS 限制(direct IO + buffer IO)

1. 根据上述使用限制部署组件、打开相关开关、输入相关磁盘名称。
2. 部署业务。
3. 部署关联该业务的 PodQOS 对象,选择需要作用的业务,示例如下:
apiVersion: ensurance.crane.io/v1alpha1
kind: PodQOS
metadata:
name: a
spec:
labelSelector:
matchLabels:
k8s-app: a
resourceQOS:
diskIOQOS:
diskIOLimit:
readBps: 1048576 # readBPS 限制 Pod 读带宽,单位为 mbps
writeBps: 1048576 # writeBPS 限制 Pod 写带宽,单位为 mbps

常见问题

如何确定节点的磁盘名?

1. 登录需要开启磁盘 IO 的原生节点,操作详情请参见 原生节点开启 SSH 密钥登录
2. 执行以下命令,以获取所有的磁盘设备:
lsblk -l | grep disk
执行结果如下图所示:
注意:
1. 下图中的 zram0 是用于虚拟内存压缩的模块,不是磁盘名。
2. 下图中的 vda1 是一个 part 分区块,也不是磁盘名。
3. 下方示例仅展示了一个磁盘,其磁盘名为:vda。




社区 BFQ 问题可能导致原生节点内核 panic

建议:升级 QoS Agent 版本到1.1.2以上,以避免由于 Linux 社区内核 BFQ 模块的 bug 导致原生节点内核发生 panic。相关问题如下:
查询方案:您可以通过在节点上执行命令 cat /sys/block/[磁盘名称]/queue/scheduler 来确认调度策略,如果输出包含[bfq]字段,则表示已启用 BFQ,需要进行更改。
修改方案:将调度策略更改为 mq-deadline。例如,如果磁盘名称为 vda,则可以使用以下方式进行修改:
echo mq-deadline > /sys/block/vda/queue/scheduler


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈