为什么 k8s 上 0.5 核的 pod 这么忙? 
                                                    
                        
                    
                    
  
                    
                    - 我们的技术总监在我写广告合并请求的业务时, 和我说了一句现在的服务是不是都是运行在0.5核的节点上, 需要注意设置一下参数
- 然后我回去看了一下, 我们的golang部分服务是运行在k8s上0.5核的pod, 然后跑在多台8核的物理节点上
- 然后程序中可以通过以下命令打印出当前的GOMAXPROCS, 服务虽然运行在pod上,但打印的是实际的宿主机的核心数
package main
import (
    "fmt"
    "runtime"
)
func main() {
    // runtime.GOMAXPROCS(1) : 设置为 1
    fmt.Printf("当前: %d", runtime.GOMAXPROCS(0))
    // 8
}
- 先说解决方案, 直接使用github.com/uber-go/automaxprocs这个库获取到实际的核心数, 然后设置
- 修改完之后, 我们的服务负载就下降了很多
1.png
why
- GMP设计思想- G代表- goroutine协程,- M代表- machine线程,- P代表- processor处理器;- P包含了运行- G所需要的资源,- M想要运行- goroutine必须先获取- P
- 为什么修改 - GOMAXPROCS参数可以更高效的运行呢? 简单的来说, 就是本身容器只有- 0.5核, 但是却设置了- GOMAXPROCS=8, 导致会创建出- 8个- P, 每个- P由不同的- M管理
- 所以当 - GOMAXPROCS大于核心数量的时候, 会导致线程不断的切换, 然后- cpu有一部分时间被切换占用了(设置为- cpu的核心数可以减少切换, 但还是会有切换的场景)
Q 那么设置GOMAXPROCS等于1的时候, 什么时候会出现线程切换? 是不是无法高并发呢?
- 答案是可以的, 虽然同是只能处理1个任务, 但是cpu实在是太快了. 并且网络io(大部分web服务都是属于网络io)不占用cpu时间
- 根据G-P-M调度模型,GOMAXPROCS等于1,- 一个P指为P1运行(假设P1里的本地队列有G0,G1,G2三个goroutine),
- 创建新的M1绑定到P1上
 
- 一个
- 当G0里遇到以下场景- 出现系统调用, 文件io阻塞的时候
- 会把当前的线程P绑定的M1线程去交给系统调度,
- 然后从休眠线程队列/创建新的线程M2
- 然后绑定到P1, 继续调度P1后面的G1,G2
 
- 出现系统调用, 文件
- 当M1的阻塞调用结束后, 会优先返回P1, 但是P1已经被M2占用, 然后从空闲队列P获取,但是我们只有一个P,也获取失败, 就会把G0放到全局队列中, 等待P1之后获取
PS
- 网络io不会造成阻塞, 因为golang在网络请求时,其后台通过kqueue(MacOS),epoll(Linux)或 iocp(Windows来实现IO多路复用
- 所以网络io密集的服务, 即使核心数量不多,golang也能处理高并发请求
引用
本作品采用《CC 协议》,转载必须注明作者和本文链接
 
           seth-shi 的个人博客
 seth-shi 的个人博客
        


 
             
             
         
           
           关于 LearnKu
                关于 LearnKu
               
                     
                     
                     粤公网安备 44030502004330号
 粤公网安备 44030502004330号 
 
推荐文章: