[Golang三关-典藏版] Golang 调度器 GMP 原理与调度全分析

本章节已收录《Golang修养之路》www.yuque.com/aceld/golang/ithv8f 第一篇第2章节。

本章节已收录纸质图书《深入理解Go语言》

[Golang三关-典藏版] Golang 调度器 GMP 原理与调度全分析

该文章主要详细具体的介绍Goroutine调度器过程及原理,可以对Go调度器的详细调度过程有一个清晰的理解,花 费4天时间作了30+张图(推荐收藏),包括如下几个章节。

本章节含视频版:

第一章 Golang调度器的由来

第二章 Goroutine调度器的GMP模型及设计思想

第三章 Goroutine调度场景过程全图文解析

一、Golang“调度器”的由来?

(1) 单进程时代不需要调度器

我们知道,一切的软件都是跑在操作系统上,真正用来干活(计算)的是CPU。早期的操作系统每个程序就是一个进程,直到一个程序运行完,才能进行下一个进程,就是“单进程时代”

一切的程序只能串行发生。
5-单进程操作系统.png

早期的单进程操作系统,面临2个问题:

1.单一的执行流程,计算机只能一个任务一个任务处理。

2.进程阻塞所带来的CPU时间浪费。

那么能不能有多个进程来宏观一起来执行多个任务呢?

后来操作系统就具有了最早的并发能力:多进程并发,当一个进程阻塞的时候,切换到另外等待执行的进程,这样就能尽量把CPU利用起来,CPU就不浪费了。

(2)多进程/线程时代有了调度器需求

6-多进程操作系统.png

在多进程/多线程的操作系统中,就解决了阻塞的问题,因为一个进程阻塞cpu可以立刻切换到其他进程中去执行,而且调度cpu的算法可以保证在运行的进程都可以被分配到cpu的运行时间片。这样从宏观来看,似乎多个进程是在同时被运行。

但新的问题就又出现了,进程拥有太多的资源,进程的创建、切换、销毁,都会占用很长的时间,CPU虽然利用起来了,但如果进程过多,CPU有很大的一部分都被用来进行进程调度了。

怎么才能提高CPU的利用率呢?

但是对于Linux操作系统来讲,cpu对进程的态度和线程的态度是一样的。
7-cpu切换浪费成本.png

很明显,CPU调度切换的是进程和线程。尽管线程看起来很美好,但实际上多线程开发设计会变得更加复杂,要考虑很多同步竞争等问题,如锁、竞争冲突等。

(3)协程来提高CPU利用率

多进程、多线程已经提高了系统的并发能力,但是在当今互联网高并发场景下,为每个任务都创建一个线程是不现实的,因为会消耗大量的内存(进程虚拟内存会占用4GB[32位操作系统], 而线程也要大约4MB)。

大量的进程/线程出现了新的问题

  • 高内存占用
  • 调度的高消耗CPU

好了,然后工程师们就发现,其实一个线程分为“内核态“线程和”用户态“线程。

一个“用户态线程”必须要绑定一个“内核态线程”,但是CPU并不知道有“用户态线程”的存在,它只知道它运行的是一个“内核态线程”(Linux的PCB进程控制块)。

8-线程的内核和用户态.png

这样,我们再去细化去分类一下,内核线程依然叫“线程(thread)”,用户线程叫“协程(co-routine)”.

9-协程和线程.png

​ 看到这里,我们就要开脑洞了,既然一个协程(co-routine)可以绑定一个线程(thread),那么能不能多个协程(co-routine)绑定一个或者多个线程(thread)上呢。

​ 之后,我们就看到了有3种协程和线程的映射关系:

N:1关系

N个协程绑定1个线程,优点就是协程在用户态线程即完成切换,不会陷入到内核态,这种切换非常的轻量快速。但也有很大的缺点,1个进程的所有协程都绑定在1个线程上

缺点:

  • 某个程序用不了硬件的多核加速能力
  • 一旦某协程阻塞,造成线程阻塞,本进程的其他协程都无法执行了,根本就没有并发的能力了。

10-N-1关系.png

1:1 关系

1个协程绑定1个线程,这种最容易实现。协程的调度都由CPU完成了,不存在N:1缺点,

缺点:

  • 协程的创建、删除和切换的代价都由CPU完成,有点略显昂贵了。

11-1-1.png

M:N关系

M个协程绑定1个线程,是N:1和1:1类型的结合,克服了以上2种模型的缺点,但实现起来最为复杂。

12-m-n.png

​ 协程跟线程是有区别的,线程由CPU调度是抢占式的,协程由用户态调度是协作式的,一个协程让出CPU后,才执行下一个协程。

(4)Go语言的协程goroutine

Go为了提供更容易使用的并发方法,使用了goroutine和channel。goroutine来自协程的概念,让一组可复用的函数运行在一组线程之上,即使有协程阻塞,该线程的其他协程也可以被runtime调度,转移到其他可运行的线程上。最关键的是,程序员看不到这些底层的细节,这就降低了编程的难度,提供了更容易的并发。

Go中,协程被称为goroutine,它非常轻量,一个goroutine只占几KB,并且这几KB就足够goroutine运行完,这就能在有限的内存空间内支持大量goroutine,支持了更多的并发。虽然一个goroutine的栈只占几KB,但实际是可伸缩的,如果需要更多内容,runtime会自动为goroutine分配。

Goroutine特点:

  • 占用内存更小(几kb)
  • 调度更灵活(runtime调度)
(5)被废弃的goroutine调度器

​ 好了,既然我们知道了协程和线程的关系,那么最关键的一点就是调度协程的调度器的实现了。

Go目前使用的调度器是2012年重新设计的,因为之前的调度器性能存在问题,所以使用4年就被废弃了,那么我们先来分析一下被废弃的调度器是如何运作的?

大部分文章都是会用G来表示Goroutine,用M来表示线程,那么我们也会用这种表达的对应关系。

13-gm.png

下面我们来看看被废弃的golang调度器是如何实现的?

14-old调度器.png

M想要执行、放回G都必须访问全局G队列,并且M有多个,即多线程访问同一资源需要加锁进行保证互斥/同步,所以全局G队列是有互斥锁进行保护的。

老调度器有几个缺点:

  1. 创建、销毁、调度G都需要每个M获取锁,这就形成了激烈的锁竞争
  2. M转移G会造成延迟和额外的系统负载。比如当G中包含创建新协程的时候,M创建了G’,为了继续执行G,需要把G’交给M’执行,也造成了很差的局部性,因为G’和G是相关的,最好放在M上执行,而不是其他M’。
  3. 系统调用(CPU在M之间的切换)导致频繁的线程阻塞和取消阻塞操作增加了系统开销。

二、Goroutine调度器的GMP模型的设计思想

面对之前调度器的问题,Go设计了新的调度器。

在新调度器中,除了M(thread)和G(goroutine),又引进了P(Processor)。

15-gmp.png

Processor,它包含了运行goroutine的资源,如果线程想运行goroutine,必须先获取P,P中还包含了可运行的G队列。

(1)GMP模型

在Go中,线程是运行goroutine的实体,调度器的功能是把可运行的goroutine分配到工作线程上

16-GMP-调度.png

  1. 全局队列(Global Queue):存放等待运行的G。
  2. P的本地队列:同全局队列类似,存放的也是等待运行的G,存的数量有限,不超过256个。新建G’时,G’优先加入到P的本地队列,如果队列满了,则会把本地队列中一半的G移动到全局队列。
  3. P列表:所有的P都在程序启动时创建,并保存在数组中,最多有GOMAXPROCS(可配置)个。
  4. M:线程想运行任务就得获取P,从P的本地队列获取G,P队列为空时,M也会尝试从全局队列一批G放到P的本地队列,或从其他P的本地队列一半放到自己P的本地队列。M运行G,G执行之后,M会从P获取下一个G,不断重复下去。

Goroutine调度器和OS调度器是通过M结合起来的,每个M都代表了1个内核线程,OS调度器负责把内核线程分配到CPU的核上执行

有关P和M的个数问题

1、P的数量:

  • 由启动时环境变量$GOMAXPROCS或者是由runtime的方法GOMAXPROCS()决定。这意味着在程序执行的任意时刻都只有$GOMAXPROCS个goroutine在同时运行。

2、M的数量:

  • go语言本身的限制:go程序启动时,会设置M的最大数量,默认10000.但是内核很难支持这么多的线程数,所以这个限制可以忽略。
  • runtime/debug中的SetMaxThreads函数,设置M的最大数量
  • 一个M阻塞了,会创建新的M。

M与P的数量没有绝对关系,一个M阻塞,P就会去创建或者切换另一个M,所以,即使P的默认数量是1,也有可能会创建很多个M出来。

P和M何时会被创建

1、P何时创建:在确定了P的最大数量n后,运行时系统会根据这个数量创建n个P。

2、M何时创建:没有足够的M来关联P并运行其中的可运行的G。比如所有的M此时都阻塞住了,而P中还有很多就绪任务,就会去寻找空闲的M,而没有空闲的,就会去创建新的M。

(2)调度器的设计策略

复用线程:避免频繁的创建、销毁线程,而是对线程的复用。

1)work stealing机制

​ 当本线程无可运行的G时,尝试从其他线程绑定的P偷取G,而不是销毁线程。

2)hand off机制

​ 当本线程因为G进行系统调用阻塞时,线程释放绑定的P,把P转移给其他空闲的线程执行。

利用并行GOMAXPROCS设置P的数量,最多有GOMAXPROCS个线程分布在多个CPU上同时运行。GOMAXPROCS也限制了并发的程度,比如GOMAXPROCS = 核数/2,则最多利用了一半的CPU核进行并行。

抢占:在coroutine中要等待一个协程主动让出CPU才执行下一个协程,在Go中,一个goroutine最多占用CPU 10ms,防止其他goroutine被饿死,这就是goroutine不同于coroutine的一个地方。

全局G队列:在新的调度器中依然有全局G队列,但功能已经被弱化了,当M执行work stealing从其他P偷不到G时,它可以从全局G队列获取G。

(3) go func() 调度流程

18-go-func调度周期.jpeg

从上图我们可以分析出几个结论:

​ 1、我们通过 go func()来创建一个goroutine;

​ 2、有两个存储G的队列,一个是局部调度器P的本地队列、一个是全局G队列。新创建的G会先保存在P的本地队列中,如果P的本地队列已经满了就会保存在全局的队列中;

​ 3、G只能运行在M中,一个M必须持有一个P,M与P是1:1的关系。M会从P的本地队列弹出一个可执行状态的G来执行,如果P的本地队列为空,就会向其他的MP组合偷取一个可执行的G来执行;

​ 4、一个M调度G执行的过程是一个循环机制;

​ 5、当M执行某一个G时候如果发生了syscall或则其余阻塞操作,M会阻塞,如果当前有一些G在执行,runtime会把这个线程M从P中摘除(detach),然后再创建一个新的操作系统的线程(如果有空闲的线程可用就复用空闲线程)来服务于这个P;

​ 6、当M系统调用结束时候,这个G会尝试获取一个空闲的P执行,并放入到这个P的本地队列。如果获取不到P,那么这个线程M变成休眠状态, 加入到空闲线程中,然后这个G会被放入全局队列中。

(4)调度器的生命周期

17-pic-go调度器生命周期.png

特殊的M0和G0

M0

M0是启动程序后的编号为0的主线程,这个M对应的实例会在全局变量runtime.m0中,不需要在heap上分配,M0负责执行初始化操作和启动第一个G, 在之后M0就和其他的M一样了。

G0

G0是每次启动一个M都会第一个创建的 goroutine,G0仅用于负责调度的G,G0不指向任何可执行的函数, 每个M都会有一个自己的G0。在调度或系统调用时会使用G0的栈空间, 全局变量的G0是M0的G0。

我们来跟踪一段代码

package main

import "fmt"

func main() {
    fmt.Println("Hello world")
}

接下来我们来针对上面的代码对调度器里面的结构做一个分析。

也会经历如上图所示的过程:

  1. runtime创建最初的线程m0和goroutine g0,并把2者关联。
  2. 调度器初始化:初始化m0、栈、垃圾回收,以及创建和初始化由GOMAXPROCS个P构成的P列表。
  3. 示例代码中的main函数是main.mainruntime中也有1个main函数——runtime.main,代码经过编译后,runtime.main会调用main.main,程序启动时会为runtime.main创建goroutine,称它为main goroutine吧,然后把main goroutine加入到P的本地队列。
  4. 启动m0,m0已经绑定了P,会从P的本地队列获取G,获取到main goroutine。
  5. G拥有栈,M根据G中的栈信息和调度信息设置运行环境
  6. M运行G
  7. G退出,再次回到M获取可运行的G,这样重复下去,直到main.main退出,runtime.main执行Defer和Panic处理,或调用runtime.exit退出程序。

调度器的生命周期几乎占满了一个Go程序的一生,runtime.main的goroutine执行之前都是为调度器做准备工作,runtime.main的goroutine运行,才是调度器的真正开始,直到runtime.main结束而结束。

(5)可视化GMP编程

有2种方式可以查看一个程序的GMP的数据。

方式1:go tool trace

trace记录了运行时的信息,能提供可视化的Web页面。

简单测试代码:main函数创建trace,trace会运行在单独的goroutine中,然后main打印”Hello World”退出。

trace.go

package main

import (
    "os"
    "fmt"
    "runtime/trace"
)

func main() {

    //创建trace文件
    f, err := os.Create("trace.out")
    if err != nil {
        panic(err)
    }

    defer f.Close()

    //启动trace goroutine
    err = trace.Start(f)
    if err != nil {
        panic(err)
    }
    defer trace.Stop()

    //main
    fmt.Println("Hello World")
}

运行程序

$ go run trace.go 
Hello World

会得到一个trace.out文件,然后我们可以用一个工具打开,来分析这个文件。

$ go tool trace trace.out 
2020/02/23 10:44:11 Parsing trace...
2020/02/23 10:44:11 Splitting trace...
2020/02/23 10:44:11 Opening browser. Trace viewer is listening on http://127.0.0.1:33479

我们可以通过浏览器打开http://127.0.0.1:33479网址,点击view trace 能够看见可视化的调度流程。

19-go-trace1.png

20-go-trace2.png

G信息

点击Goroutines那一行可视化的数据条,我们会看到一些详细的信息。

20-go-trace3.png

  一共有两个G在程序中,一个是特殊的G0,是每个M必须有的一个初始化的G,这个我们不必讨论。

其中G1应该就是main goroutine(执行main函数的协程),在一段时间内处于可运行和运行的状态。

M信息

点击Threads那一行可视化的数据条,我们会看到一些详细的信息。

22-go-trace4.png

一共有两个M在程序中,一个是特殊的M0,用于初始化使用,这个我们不必讨论。

P信息
23-go-trace5.png

G1中调用了main.main,创建了trace goroutine g18。G1运行在P1上,G18运行在P0上。

这里有两个P,我们知道,一个P必须绑定一个M才能调度G。

我们在来看看上面的M信息。

24-go-trace6.png

我们会发现,确实G18在P0上被运行的时候,确实在Threads行多了一个M的数据,点击查看如下:

25-go-trace7.png

多了一个M2应该就是P0为了执行G18而动态创建的M2.

方式2:Debug trace

package main

import (
    "fmt"
    "time"
)

func main() {
    for i := 0; i < 5; i++ {
        time.Sleep(time.Second)
        fmt.Println("Hello World")
    }
}

编译

$ go build trace2.go

通过Debug方式运行

$ GODEBUG=schedtrace=1000 ./trace2 
SCHED 0ms: gomaxprocs=2 idleprocs=0 threads=4 spinningthreads=1 idlethreads=1 runqueue=0 [0 0]
Hello World
SCHED 1003ms: gomaxprocs=2 idleprocs=2 threads=4 spinningthreads=0 idlethreads=2 runqueue=0 [0 0]
Hello World
SCHED 2014ms: gomaxprocs=2 idleprocs=2 threads=4 spinningthreads=0 idlethreads=2 runqueue=0 [0 0]
Hello World
SCHED 3015ms: gomaxprocs=2 idleprocs=2 threads=4 spinningthreads=0 idlethreads=2 runqueue=0 [0 0]
Hello World
SCHED 4023ms: gomaxprocs=2 idleprocs=2 threads=4 spinningthreads=0 idlethreads=2 runqueue=0 [0 0]
Hello World
  • SCHED:调试信息输出标志字符串,代表本行是goroutine调度器的输出;
  • 0ms:即从程序启动到输出这行日志的时间;
  • gomaxprocs: P的数量,本例有2个P, 因为默认的P的属性是和cpu核心数量默认一致,当然也可以通过GOMAXPROCS来设置;
  • idleprocs: 处于idle状态的P的数量;通过gomaxprocs和idleprocs的差值,我们就可知道执行go代码的P的数量;
  • threads: os threads/M的数量,包含scheduler使用的m数量,加上runtime自用的类似sysmon这样的thread的数量;
  • spinningthreads: 处于自旋状态的os thread数量;
  • idlethread: 处于idle状态的os thread的数量;
  • runqueue=0: Scheduler全局队列中G的数量;
  • [0 0]: 分别为2个P的local queue中的G的数量。

下一篇,我们来继续详细的分析GMP调度原理的一些场景问题。

三、Go调度器调度场景过程全解析

(1)场景1

P拥有G1,M1获取P后开始运行G1,G1使用go func()创建了G2,为了局部性G2优先加入到P1的本地队列。
26-gmp场景1.png


(2)场景2

G1运行完成后(函数:goexit),M上运行的goroutine切换为G0,G0负责调度时协程的切换(函数:schedule)。从P的本地队列取G2,从G0切换到G2,并开始运行G2(函数:execute)。实现了线程M1的复用。

27-gmp场景2.png


(3)场景3

假设每个P的本地队列只能存3个G。G2要创建了6个G,前3个G(G3, G4, G5)已经加入p1的本地队列,p1本地队列满了。

28-gmp场景3.png


(4)场景4

G2在创建G7的时候,发现P1的本地队列已满,需要执行负载均衡(把P1中本地队列中前一半的G,还有新创建G转移到全局队列)

(实现中并不一定是新的G,如果G是G2之后就执行的,会被保存在本地队列,利用某个老的G替换新G加入全局队列)

29-gmp场景4.png

这些G被转移到全局队列时,会被打乱顺序。所以G3,G4,G7被转移到全局队列。


(5)场景5

G2创建G8时,P1的本地队列未满,所以G8会被加入到P1的本地队列。

30-gmp场景5.png

G8加入到P1点本地队列的原因还是因为P1此时在与M1绑定,而G2此时是M1在执行。所以G2创建的新的G会优先放置到自己的M绑定的P上。


(6)场景6

规定:在创建G时,运行的G会尝试唤醒其他空闲的P和M组合去执行

31-gmp场景6.png

假定G2唤醒了M2,M2绑定了P2,并运行G0,但P2本地队列没有G,M2此时为自旋线程(没有G但为运行状态的线程,不断寻找G)


(7)场景7

M2尝试从全局队列(简称“GQ”)取一批G放到P2的本地队列(函数:findrunnable())。M2从全局队列取的G数量符合下面的公式:

n = min(len(GQ)/GOMAXPROCS + 1, len(GQ/2))

至少从全局队列取1个g,但每次不要从全局队列移动太多的g到p本地队列,给其他p留点。这是从全局队列到P本地队列的负载均衡

32-gmp场景7.001.jpeg

假定我们场景中一共有4个P(GOMAXPROCS设置为4,那么我们允许最多就能用4个P来供M使用)。所以M2只从能从全局队列取1个G(即G3)移动P2本地队列,然后完成从G0到G3的切换,运行G3。


(8)场景8

假设G2一直在M1上运行,经过2轮后,M2已经把G7、G4从全局队列获取到了P2的本地队列并完成运行,全局队列和P2的本地队列都空了,如场景8图的左半部分。

33-gmp场景8.png

全局队列已经没有G,那m就要执行work stealing(偷取):从其他有G的P哪里偷取一半G过来,放到自己的P本地队列。P2从P1的本地队列尾部取一半的G,本例中一半则只有1个G8,放到P2的本地队列并执行。


(9)场景9

G1本地队列G5、G6已经被其他M偷走并运行完成,当前M1和M2分别在运行G2和G8,M3和M4没有goroutine可以运行,M3和M4处于自旋状态,它们不断寻找goroutine。

34-gmp场景9.png

为什么要让m3和m4自旋,自旋本质是在运行,线程在运行却没有执行G,就变成了浪费CPU. 为什么不销毁现场,来节约CPU资源。因为创建和销毁CPU也会浪费时间,我们希望当有新goroutine创建时,立刻能有M运行它,如果销毁再新建就增加了时延,降低了效率。当然也考虑了过多的自旋线程是浪费CPU,所以系统中最多有GOMAXPROCS个自旋的线程(当前例子中的GOMAXPROCS=4,所以一共4个P),多余的没事做线程会让他们休眠。


(10)场景10

​ 假定当前除了M3和M4为自旋线程,还有M5和M6为空闲的线程(没有得到P的绑定,注意我们这里最多就只能够存在4个P,所以P的数量应该永远是M>=P, 大部分都是M在抢占需要运行的P),G8创建了G9,G8进行了阻塞的系统调用,M2和P2立即解绑,P2会执行以下判断:如果P2本地队列有G、全局队列有G或有空闲的M,P2都会立马唤醒1个M和它绑定,否则P2则会加入到空闲P列表,等待M来获取可用的p。本场景中,P2本地队列有G9,可以和其他空闲的线程M5绑定。

35-gmp场景10.png

(11)场景11

G8创建了G9,假如G8进行了非阻塞系统调用
36-gmp场景11.png

​ M2和P2会解绑,但M2会记住P2,然后G8和M2进入系统调用状态。当G8和M2退出系统调用时,会尝试获取P2,如果无法获取,则获取空闲的P,如果依然没有,G8会被记为可运行状态,并加入到全局队列,M2因为没有P的绑定而变成休眠状态(长时间休眠等待GC回收销毁)。


四、小结

总结,Go调度器很轻量也很简单,足以撑起goroutine的调度工作,并且让Go具有了原生(强大)并发的能力。Go调度本质是把大量的goroutine分配到少量线程上去执行,并利用多核并行,实现更强大的并发。


###关于作者:

作者:Aceld(刘丹冰)

mail: danbing.at@gmail.com
github: github.com/aceld
原创书籍gitbook: legacy.gitbook.com/@aceld

创作不易, 共同学习进步, 欢迎关注作者, 回复”zinx”有好礼

作者微信公众号


本作品采用《CC 协议》,转载必须注明作者和本文链接
刘丹冰Aceld
本帖由系统于 4年前 自动加精
讨论数量: 55

好多图片看不了

4年前 评论
CrazyZard

对很多图片丢失了

4年前 评论

@doublesouth 之前图片在同步,现在应该可以了

4年前 评论

应该能看见了

4年前 评论

"一个 goroutine 最多占用 CPU 10ms,防止其他 goroutine 被饿死 " 这句话不准确吧,我测试的结果是如果一个goroutine未发生阻塞,是不会让出cpu的(单个cpu)

3年前 评论
codebee 3年前

写的真的特别好,已经反复读了很多次了

3年前 评论

讲的非常不错. 刚看完了视频

3年前 评论

n = min(len(GQ)/GOMAXPROCS + 1, len(GQ/2)) 这个算法,假设GQ的长度在10万,那么是不是,拿取 G队列的长度 超过P所能够维护的长度256

3年前 评论

博主您好,www.wemeng.top/2020/05/05/Golang%E... 这里是您吗?我看两篇文章一模一样

3年前 评论

@TansyZ 是的,应该是转载的我的。

3年前 评论
TansyZ 3年前

理解了些,嗯,再看一遍!

3年前 评论

@Aceld 有个问题麻烦请教下、go func () 调度流程那个图和上面的文案描述的不太一致、当P的本地队列没有G、从全局队列拿取G的时候、是先放入P的本地队列、还是直接运行

3年前 评论
饭团君 2年前

在调度器的设计策略呢一块,您的文章说go的调度器设计策略是抢占式的。您的文章里不是说每一个G最多占用10ms,之后就会退出让下一个G运行,这不是协作式嘛

3年前 评论
MollyBa 1年前

看了B站的视频! 赞一个

3年前 评论

关于从全局队列取多少个G的算法, 我看了源码(1.13)的, 有点不太一样, 源码的应该是这样的

// 假设GQ为全局队列, LQ为本地队列
num := min(min(len(GQ), len(GQ) / gomaxprocs + 1), len(LQ) / 2)

另外, 我有个疑问, 关于场景10的

M被系统阻塞, 那意思应该是M这个线程整个停了, 为什么这个时候P还能继续走解绑,唤醒,重绑的逻辑呢? 难道P不是在M上执行的么?

2年前 评论

太强了,收获满满,点赞!

2年前 评论
G0 是每次启动一个 M 都会第一个创建的 gourtine,G0 仅用于负责调度的 GG0 不指向任何可执行的函数,每个 M 都会有一个自己的 G0。在调度或系统调用时会使用 G0 的栈空间,全局变量的 G0M0G0

gourtine typo 图文理解透彻 感谢博主

2年前 评论

谢谢博主,讲解的非常透彻。不过下面有个地方和我理解有出入。

全局队列已经没有 G,那 m 就要执行 work stealing (偷取):从其他有 G 的 P 哪里偷取一半 G 过来,放到自己的 P 本地队列。P2 从 P1 的本地队列尾部取一半的 G,本例中一半则只有 1 个 G8,放到 P2 的本地队列并执行。

看了下源码中关于work stealing的实现 runqgrab,貌似P2是从P1的头部开始取一半的G。相关的代码如下:

        h := atomic.LoadAcq(&_p_.runqhead) // load-acquire, synchronize with other consumers
        t := atomic.LoadAcq(&_p_.runqtail) // load-acquire, synchronize with the producer
        n := t - h
        n = n - n/2

        ... ...

        for i := uint32(0); i < n; i++ {
            g := _p_.runq[(h+i)%uint32(len(_p_.runq))]
            batch[(batchHead+i)%uint32(len(batch))] = g
        }
        if atomic.CasRel(&_p_.runqhead, h, h+n) { // cas-release, commits consume
            return n
        }

不知道我的理解有没有问题?

———————————————— 原文作者:Aceld 转自链接:博客:[典藏版] Golang 调度器 GMP 原理与调度全分析 版权声明:著作权归作者所有。商业转载请联系作者获得授权,非商业转载请保留以上作者信息和原文链接。

2年前 评论

场景8的图片中,M2从M1中偷到G8之后,G8还在P1的本地队列中,这里是不是画错了?

2年前 评论
ectd_1 2年前

G1 本地队列 G5、G6 已经被其他 M 偷走并运行完成,

这是不是写错了啦, p1吧

2年前 评论

视频不见了,可以更新一下链接吗

2年前 评论

M:N M 个协程绑定 1 个线程,是 N:1 和 1:1 类型的结合,克服了以上 2 种模型的缺点,但实现起来最为复杂 这里你写错了吧,应该是M 个协程绑定 N 个线程吧

1年前 评论

为啥没提到runnext

1年前 评论

博主大佬好,内容写的超级超级赞,通俗易懂且全面,排版和作图也超级赞,给我建立了一个很好的 GMP 模型轮廓。小白有个小疑问,如下图所示,如果博主能在百忙之中回答一下,将不胜感激。

file

1年前 评论
刘丹冰Aceld (楼主) 1年前
刘丹冰Aceld (楼主) 1年前
lucky-bird (作者) 1年前

请教一下“当任务阻塞的时候重新新建一个M”,这句话里面的“阻塞”是谁来判定的?也就是说我们怎么知道它阻塞了

1年前 评论
MollyBa 1年前

file 楼主好,这里全局队列的解释是否有误,应该先从全局队列拿,再偷其他的本地队列?

1年前 评论
面试权威指南 1年前

前面说道P和M的创建时机 --- M是P决定的,如果没有空闲,会创建出来的

后面说M>=P的,这样可以理解,不存在空闲,需要不断的争抢

可是m>=p这个事 是谁做的? coder 在哪一步保证的呢?

1年前 评论
ricktian 8个月前
kylin_ 8个月前

剖析得真清晰,点赞!

8个月前 评论

其实我看了看源码有一个地方不是很理解,就是从架构上来看,貌似应该是P充当了G与M连接的桥梁,但是实际上源码中好像不绝对,P能通过G获取M。所以看源码的时候老是觉得混乱

8个月前 评论

n = min(len(GQ)/GOMAXPROCS + 1, len(GQ/2)) 这个公式错了,应该是 n = min(len(GQ)/GOMAXPROCS + 1, len(LRQ/2))。保证不超过本地队列的一半,目的是G在创建新的G可以优先放入本地队列,而不是加锁放入全局队列

2周前 评论

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!