作者:kylinkzhang,腾讯 CSIG 后台开发工程师
我们可以简单的认为:协程就是用户态的线程,但是上下文切换的时机是靠调用方(写代码的开发人员)自身去控制的。
同时,协程和用户态线程非常接近,用户态线程之间的切换不需要陷入内核,但部分操作系统中用户态线程的切换需要内核态线程的辅助。
下面是一个简单的例子:
void A() {
cout << 1 << " ";
cout << 2 << " ";
cout << 3 << " ";
}void B() {
cout << "x" << " ";
cout << "y" << " ";
cout << "z" << " ";
}
int main(void) {
A();
B();
}
在单线程中,上述函数的输出为:
1 2 3 x y z
如果我们用 libco 库将上面程序改造一下:
void A() {
cout << 1 << " ";
cout << 2 << " ";
co_yield_ct(); // 切出到主协程
cout << 3 << " ";
}void B() {
cout << "x" << " ";
co_yield_ct(); // 切出到主协程
cout << "y" << " ";
cout << "z" << " ";
}
int main(void) {
... // 主协程
co_resume(A); // 启动协程 A
co_resume(B); // 启动协程 B
co_resume(A); // 从协程 A 切出处继续执行
co_resume(B); // 从协程 B 切出处继续执行
}
同样在单线程中,改造后的程序输出如下:
1 2 x 3 y z
可以看出,切出操作是由 co_yield_ct()
函数实现的,而协程的启动和恢复是由 co_resume
实现的。函数 A()
和 B()
并不是一个执行完才执行另一个,而是产生了 “交叉执行“ 的效果,这就是通过协程实现的!
线程挺好的,我们为什么需要协程呢?
因为有些时候我们在执行一些操作(尤其是IO操作)时,不希望去做“创建一个新的线程”
这种重量级的操作来异步处理。而是希望:在当前线程执行中,暂时切换到其他任务中执行,同时在IO真正准备好了之后,再切换回来继续执行!
相比于多开一个线程来操作,使用协程的好处:
更多协程的好处:
https://www.zhihu.com/question/20511233
同时,下面是一些协程的特点:
不理解这些协程特点也不要紧,下文都会讲到。
下图中展示了线程在运行过程 CPU 需要的一些信息(CPU Context,CPU 上下文),比如通用寄存器、栈信息(EBP/ESP)等,进程/线程切换时需要保存与恢复这些信息。而进程/内核态线程切换的时候需要与OS内核进行交互,保存/读取 CPU 上下文信息。
内核态(Kernel)的一些数据是共享的,读写时需要同步机制,所以操作一旦陷入内核态就会消耗更多的时间。进程需要与操作系统中所有其他进程进行资源争抢,且操作系统中资源的锁是全局的;线程之间的数据一般在进程内共享,所以线程间资源共享相比如进程而言要轻一些。
虽然很多操作系统(比如 Linux)进程与线程区别不是非常明显,但线程还是比进程要轻。
线程的切换(Context Switch)相比于其他操作而言并不是非常耗时,如下图所示(2018年):
参考这篇 Linux线程相关文章,Linux 2.6 之后 Linux 多线程的性能提高了很多,大部分场景下线程切换耗时在 2us 左右;
下面是 Linux 下线程切换耗时统计(2013 年):
正常情况下线程可用的 CPU 时间片都在数十毫秒级别,而线程切换占总耗时的千分之几以内,协程的使用可以将这个损耗进一步降低(主要是去除了其他操作,比如 futex 等)。
不是所有编程语言或者系统都支持一次创建很多线程。
例如,在 x32 系统中即使使用了虚内存空间,因为进程能访问的虚内存空间大概是 3GB,所以单进程最多创建 300 多条线程(假设系统为每条线程分配 10M 栈空间),太多线程甚至还伴随着由于线程切换而触发缺页中断的风险。
如果我们创建很多线程(比如 x64 系统下创建 1 万个线程),不考虑优先级且假设 CPU 有 10 个核心,那么每个线程每秒有 1ms 的时间片,整个业务的耗时大概是:
(n-1) * 1 + n * 0.001(n−1)∗1+n∗0.001秒
;(n 是线程在处理业务的过程中被调度的次数)
;如果大量线程之间存在资源竞争,那么系统行为将难以预测。所以在有限的资源下创建大量线程是极其不合理的,服务线程的个数和 CPU 核心数应该在一个合理的比例内。
操作系统线程调度可参考:
https://help.perforce.com/sourcepro/current/HTML/index.html#page/SourcePro_Core/threadsug-ThreadPackage.22.118.html
在默认情况下,Linux 系统给每条线程分配的栈空间最大是 6~8MB,这个大小是上限,也是虚内存空间,并不是每条线程真实的栈使用情况。
线程真实栈内存使用会随着线程执行而变化,如果线程只使用了少量局部变量,那么真实线程栈可能只有几十个字节的大小;系统在维护线程时需要分配额外的空间,所以线程数的增加还是会提高内存资源的消耗。
通过上面的分析我们可以知道:
如果业务处理时间远小于 IO 耗时,线程切换非常频繁,那么使用协程是不错的选择;
并且,协程的优势并不仅仅是减少线程之间切换,从编程的角度来看,协程的引入简化了异步编程;
同时,协程为一些异步编程提供了无锁的解决方案,即:
协程可以用同步编程的方式实现异步编程才能实现的功能。
很多地方把协程称为 Subroutine;Subroutine是什么?就是函数!
上古时期的计算机科学家们早就给出了概念:Coroutine就是可以中断并恢复执行的Subroutine。
因此从这个角度来看协程拥有调用栈并不是一个奇怪的事情。
再来思考,Coroutine与Subroutine相比有什么区别?区别仅有一个就是:
Coroutine可以中断并恢复,对应的操作就是 yield/resume
。
这样看来Subroutine不过是Coroutine的一个子集罢了,也就是说把协程当做一个特殊的函数调用:
可以中断并恢复
既然可以把 Coroutine 当做一个特殊的函数调用,那么如何像切换函数一样去切换Coroutine呢?难点在于:
通常的做法是:在协程内部存储自身的上下文,并在需要切换的时候把上下文切换;我们知道上下文其实本质上就是寄存器,所以保存上下文实际上就是把寄存器的值保存下来。
相对应的,有下面几种方法:
setjmp/longjmp
;ucontext.h
这个封装好的库也可以帮我们完成上下文的相关工作。关于
setjmp.h
:https://zh.m.wikipedia.org/zh-hans/Setjmp.h需要注意的是:
setjmp/longjmp 一般不能作为协程实现的底层机制,因为 setjmp/longjmp 对栈信息的支持有限。
关于 ucontext.h
:https://en.wikipedia.org/wiki/Setcontext
下面分别来看 setjmp
和 ucontext
方法,至于使用汇编的方法,会在本文讲解有栈协程是讲述。
下面代码模拟了单线程并发执行两个 while(true){...}
函数:
源代码:https://github.com/JasonkayZK/cpp-learn/tree/coroutine/setjmp_demo
setjmp_demo/setjmp_demo.cc
#include <cstdlib>
#include <cstdio>
#include <setjmp.h>int max_iteration = 9;
int iter;
jmp_buf Main;
jmp_buf PointPing;
jmp_buf PointPong;
void Ping() {
if (setjmp(PointPing) == 0) longjmp(Main, 1); // 可以理解为重置,reset the world
while (1) {
printf("%3d : Ping-", iter);
if (setjmp(PointPing) == 0) longjmp(PointPong, 1);
}
}
void Pong() {
if (setjmp(PointPong) == 0) longjmp(Main, 1);
while (1) {
printf("Pong\n");
iter++;
if (iter > max_iteration) exit(0);
if (setjmp(PointPong) == 0) longjmp(PointPing, 1);
}
}
int main(int argc, char* argv[]) {
iter = 1;
if (setjmp(Main) == 0) Ping();
if (setjmp(Main) == 0) Pong();
longjmp(PointPing, 1);
}
首先,我们定义了三个保存调用栈的节点:
jmp_buf Main;
jmp_buf PointPing;
jmp_buf PointPong;
并在 main 函数中首先创建(启动)了两个函数:Ping、Pong,在使用 longjmp(PointPing, 1);
之后,PointPing
不再是0,从而启动了 Ping 协程。此后,函数 Ping 和 函数 Pong 在 while (1)
中交替执行,而不再返回 main 函数中。
最后,当 iter > max_iteration
时,调用 exit(0)
退出。通过命令 g++ -std=c++11 setjmp_demo.cc -o setjmp_demo
编译后执行 ./setjmp_demo
,输出如下:
1 : Ping-Pong
2 : Ping-Pong
3 : Ping-Pong
4 : Ping-Pong
5 : Ping-Pong
6 : Ping-Pong
7 : Ping-Pong
8 : Ping-Pong
9 : Ping-Pong
虽然上面实现了比较简单的函数切换,但是实际上我们无法通过 setjmp.h
库获取到真正的上下文信息。如果想要真正获取到上下文信息,可以使用 ucontext.h
库。
下面关于 ucontext 的介绍源自:
http://pubs.opengroup.org/onlinepubs/7908799/xsh/ucontext.h.html 实际上,ucontext lib 已经不推荐使用了,但依旧是不错的协程入门资料。其他底层协程库实现可以查看:
协程库的对比可以参考:
https://github.com/tboox/benchbox/wiki/switch
linux 系统一般都存在 ucontext 这个 C语言库,这个库主要用于:操控当前线程下的 CPU 上下文。
和 setjmp/longjmp
不同,ucontext
直接提供了设置函数运行时栈的方式(makecontext
),避免不同函数栈空间的重叠。
需要注意的是:
ucontext 只操作与当前线程相关的 CPU 上下文,所以下文中涉及 ucontext 的上下文均指当前线程的上下文;(一般CPU 有多个核心,一个线程在某一时刻只能使用其中一个,所以 ucontext 只涉及一个与当前线程相关的 CPU 核心)
ucontext.h
头文件中定义了 ucontext_t
这个结构体,这个结构体中至少包含以下成员:
ucontext_t *uc_link // next context
sigset_t uc_sigmask // 阻塞信号阻塞
stack_t uc_stack // 当前上下文所使用的栈
mcontext_t uc_mcontext // 实际保存 CPU 上下文的变量,这个变量与平台&机器相关,最好不要访问这个变量
可移植的程序最好不要读取与修改
ucontext_t
中的uc_mcontext
,因为不同平台下uc_mcontext
的实现是不同的。
同时,ucontext.h
头文件中定义了四个函数,下面分别介绍:
int getcontext(ucontext_t *); // 获得当前 CPU 上下文
int setcontext(const ucontext_t *);// 重置当前 CPU 上下文
void makecontext(ucontext_t *, (void *)(), int, ...); // 修改上下文信息,比如设置栈指针
int swapcontext(ucontext_t *, const ucontext_t *);
下面分别来看。
#include <ucontext.h>
int getcontext(uconte t_t *ucp);
getcontext` 函数使用当前 CPU 上下文初始化 ucp 所指向的结构体,初始化的内容包括:CPU 寄存器、信号 mask 和当前线程所使用的栈空间;
返回值:getcontext 成功返回 0,失败返回 -1。
#include <ucontext.h>
int setcontext(ucontext_t *ucp);
和 getcontext
函数类似,setcontext
函数用于:设置CPU 寄存器、信号 mask 和当前线程所使用的栈空间。
需要特别注意的是:
如果函数 setcontext
执行成功,那么调用 setcontext
的函数将不会返回,因为当前 CPU 的上下文已经交给其他函数或者过程了,当前函数完全放弃了 对 CPU 的“所有权”。
getcontext 和 setcontext 的应用:
当信号处理函数需要执行的时候,当前线程的上下文需要保存起来,随后进入信号处理阶段;
#include <ucontext.h>
void makecontext(ucontext_t *ucp, (void *func)(), int argc, ...);
makecontext
修改由 getcontext
创建的上下文 ucp
;
如果 ucp
指向的上下文由 swapcontext
或 setcontext
恢复,那么当前线程将执行传递给 makecontext
的函数 func(...)
。
执行 makecontext 后需要为新上下文分配一个栈空间,如果不创建,那么新函数func
执行时会使用旧上下文的栈,而这个栈可能已经不存在了。同时,argc 必须和 func 中整型参数的个数相等。
#include <ucontext.h>
int swapcontext(ucontext_t *oucp, const ucontext_t *ucp);
swapcontext
将当前上下文信息保存到 oucp
中并使用 ucp
重置 CPU 上下文。
返回值:
errno
;如果 ucp
所指向的上下文没有足够的栈空间以执行余下的过程,swapcontext
将返回 -1。
相比于 setjml
略微简单的功能,使用 ucontext
我们可以方便的获取当前调用函数的上下文,进而实现协程。
协程的实现不只有一种,很多活跃的语言如 Python、Java、Golang等都是支持协程的。
尽管这些协程可能名称不同,甚至用法也不同,但它们都可以被划分为两大类:
这里所谓的有栈、无栈:
并不是说这个协程运行的时候有没有栈,而是说协程之间是否存在调用栈(Callback Stack);
同时,根据协程之间是否有明显的调用关系,我们又可以把协程分为:
例如,协程 A 调用了协程 B:
如果只有 B 完成之后才能调用 A,那么此时 A/B 是非对称协程; 如果 A/B 被调用的概率相同,那么此时 A/B 是对称协程;
下面我们分别来看。
开源库 libco 就是通过汇编语言实现的有栈协程库,我们来看一看libco中对于32位机器的上下文切换操作是如何完成的:
通过分析代码看到,无论是 co_yield_ct
还是 co_resume
,在协程切出和恢复时,都调用了同一个函数co_swap
,在这个函数中调用了 coctx_swap
来实现协程的切换,这一函数的原型是:
void coctx_swap( coctx_t *,coctx_t* ) asm("coctx_swap");
两个参数都是 coctx_t *
指针类型,其中第一个参数表示要切出的协程,第二个参数表示切出后要进入的协程。
coctx_swap
函数便是用汇编实现的,我们这里只关注 x86-64 相关的部分,其代码如下:
coctx_swap:
leaq 8(%rsp),%rax
leaq 112(%rdi),%rsp
pushq %rax
pushq %rbx
pushq %rcx
pushq %rdx pushq -8(%rax) //ret func addr
pushq %rsi
pushq %rdi
pushq %rbp
pushq %r8
pushq %r9
pushq %r12
pushq %r13
pushq %r14
pushq %r15
movq %rsi, %rsp
popq %r15
popq %r14
popq %r13
popq %r12
popq %r9
popq %r8
popq %rbp
popq %rdi
popq %rsi
popq %rax //ret func addr
popq %rdx
popq %rcx
popq %rbx
popq %rsp
pushq %rax
xorl %eax, %eax
ret
可以看出,coctx_swap
中并未像常规被调用函数一样创立新的栈帧。
先看前两条语句:
leaq 8(%rsp),%rax
leaq 112(%rdi),%rsp
leaq
用于把其第一个参数的值赋值给第二个寄存器参数,而第一条语句用来把 8(%rsp)
的本身的值存入到 %rax
中。
注意:
这里使用的并不是
8(%rsp)
指向的值,而是把 8(%rsp) 表示的地址赋值给了 %rax,这一地址是父函数栈帧中除返回地址外栈帧顶的位置。
在第二条语句 leaq 112(%rdi), %rsp
中,%rdi
存放的是coctx_swap
第一个参数的值,这一参数是指向 coctx_t
类型的指针,表示当前要切出的协程,这一类型的定义如下:
struct coctx_t {
void *regs[ 14 ];
size_t ss_size;
char *ss_sp;
};
因而 112(%rdi)
表示的就是第一个协程的 coctx_t
中 regs[14]
数组的下一个64位地址,而接下来的语句:
pushq %rax
pushq %rbx
pushq %rcx
pushq %rdx
pushq -8(%rax) //ret func addr
pushq %rsi
pushq %rdi
pushq %rbp
pushq %r8
pushq %r9
pushq %r12
pushq %r13
pushq %r14
pushq %r15
第一条语句 pushq %rax
用于把 %rax
的值放入到 regs[13]
中,resg[13]
用来存储第一个协程的 %rsp
的值。这时 %rax
中的值是第一个协程 coctx_swap
父函数栈帧除返回地址外栈帧顶的地址。
由于 regs[]
中有单独的元素存储返回地址,栈中再保存返回地址是无意义的,因而把父栈帧中除返回地址外的栈帧顶作为要保存的 %rsp
值是合理的;当协程恢复时,把保存的 regs[13]
的值赋值给 %rsp
即可恢复本协程 coctx_swap
父函数堆栈指针的位置。
第一条语句之后的语句就是用 pushq
把各CPU 寄存器的值依次从 regs
尾部向前压入。即通过调整 %rsp
把 regs[14]
当作堆栈,然后利用 pushq
把寄存器的值和返回地址存储到 regs[14]
整个数组中。并且,regs[14]
数组中各元素与其要存储的寄存器对应关系如下:
//-------------
// 64 bit
//low | regs[0]: r15 |
// | regs[1]: r14 |
// | regs[2]: r13 |
// | regs[3]: r12 |
// | regs[4]: r9 |
// | regs[5]: r8 |
// | regs[6]: rbp |
// | regs[7]: rdi |
// | regs[8]: rsi |
// | regs[9]: ret | //ret func addr, 对应 rax
// | regs[10]: rdx |
// | regs[11]: rcx |
// | regs[12]: rbx |
//hig | regs[13]: rsp |
接下来的汇编语句:
movq %rsi, %rsp
popq %r15
popq %r14
popq %r13
popq %r12
popq %r9
popq %r8
popq %rbp
popq %rdi
popq %rsi
popq %rax //ret func addr
popq %rdx
popq %rcx
popq %rbx
popq %rsp
这里用的方法还是通过改变 %rsp
的值,把某块内存当作栈来使用。
第一句 movq %rsi, %rsp
就是让 %rsp
指向 coctx_swap
第二个参数,这一参数表示要进入的协程。而第二个参数也是coctx_t
类型的指针,即执行完 movq
语句后,%rsp
指向了第二个参数 coctx_t
中 regs[0]
,而之后的 pop
语句就是用 regs[0-13]
中的值填充 cpu 的寄存器,这里需要注意的是 popq
会使得 %rsp
的值增加而不是减少,这一点保证了会从 regs[0]
到 regs[13]
依次弹出到 cpu 寄存器中。
在执行完最后一句 popq %rsp
后,%rsp
已经指向了新协程要恢复的栈指针(即新协程之前调用 coctx_swap
时父函数的栈帧顶指针),由于每个协程都有一个自己的栈空间,可以认为这一语句使得 %rsp
指向了要进入协程的栈空间。
coctx_swap
中最后三条语句如下:
pushq %rax
xorl %eax, %eax
ret
pushq %rax
用来把 %rax
的值压入到新协程的栈中,这时 %rax
是要进入的目标协程的返回地址,即要恢复的执行点;然后用 xorl
把 %rax
低32位清0以实现地址对齐;最后 ret
语句用来弹出栈的内容,并跳转到弹出的内容表示的地址处,而弹出的内容正好是上面 pushq %rax
时压入的 %rax
的值,即之前保存的此协程的返回地址。
即最后这三条语句实现了转移到新协程返回地址处执行,从而完成了两个协程的切换。
可以看出,这里通过调整 %rsp
的值来恢复新协程的栈,并利用了 ret
语句来实现修改指令寄存器 %rip
的目的,通过修改 %rip
来实现程序运行逻辑跳转。
注意:
%rip
的值不能直接修改,只能通过call
或ret
之类的指令来间接修改;
整体上看来,协程的切换其实就是:cpu 寄存器内容特别是 %rip
和 %rsp
的写入和恢复,因为 cpu 的寄存器决定了程序从哪里执行(%rip) 和使用哪个地址作为堆栈 (%rsp)。
寄存器的写入和恢复如下图所示:
执行完上图的流程,就将之前 cpu 寄存器的值保存到了协程A 的 regs[14] 中,而将协程B regs[14] 的内容写入到了寄存器中,从而使执行逻辑跳转到了 B 协程 regs[14] 中保存的返回地址处开始执行,即实现了协程的切换(从A 协程切换到了B协程执行)。
详细关于 libco 的实现细节:
https://www.zhihu.com/question/52193579 https://zhuanlan.zhihu.com/p/27409164 https://github.com/yyrdl/libco-code-study
无栈协程的本质就是一个状态机(state machine),它可以理解为在另一个角度去看问题,即:
首先,我们来看一个使用 libco 的协程的例子(当然libco是一个有栈协程):
void* test(void* para){
co_enable_hook_sys();
int i = 0;
poll(0, 0, 0. 1000); // 协程切换执行权,1000ms后返回
i++;
poll(0, 0, 0. 1000); // 协程切换执行权,1000ms后返回
i--;
return 0;
}int main(){
stCoRoutine_t* routine;
co_create(&routine, NULL, test, 0); // 创建一个协程
co_resume(routine);
co_eventloop( co_get_epoll_ct(),0,0 );
return 0;
}
这段代码实际的意义就是:主协程跑一个协程去执行 test 函数,在test中我们需要两次从协程中切换出去,这里对应了两个 poll 操作(hook机制),hook后的 poll 所做的事情就是把当前协程的CPU执行权切换到调用栈的上一层,并在超时或注册的 fd 就绪时返回(当然样例这里就只是超时了)。
如果是无栈协程,实现相同逻辑的代码是怎么样的呢?其实就是翻译成类似于以下状态机的代码:
class test_coroutine {
int i;
int __state = 0;
void MoveNext() {
switch(__state) {
case 0:
return frist();
case 1:
return second();
case 2:
return third();
}
}
void frist() {
i = 0;
__state = 1;
}
void second() {
i++;
_state = 2;
}
void third() {
i--;
}
};
我们可以看到:相比与有栈协程中的 test 函数,这里把整个协程抽象成一个类,以原本需要执行切换的语句处为界限,把函数划分为几个部分,并在某一个部分执行完以后进行状态转移,在下一次调用此函数的时候就会执行下一部分。
这样的话我们就完全没有必要像有栈协程那样显式的执行上下文切换了,我们只需要一个简易的调度器来调度这些函数即可。
在 Rust 中,async 也是一个语法糖,实际上编译后就是实现了类似于上面的代码结构,感兴趣的可以去看《async book》。
从执行时栈的角度来看:
其实所有的协程共用的都是一个栈,即系统栈,也就也不必我们自行去给协程分配栈,因为是函数调用,我们当然也不必去显示的保存寄存器的值。而且相比有栈协程把局部变量放在新开的空间上,无栈协程直接使用系统栈使得CPU cache局部性更好,同时也使得无栈协程的中断和函数返回几乎没有区别,这样也可以凸显出无栈协程的高效。
前文中也简单提到了对称和非对称协程,这里也简单聊一下吧。
其实对于“对称”这个名词,阐述的实际是:协程之间的关系。用大白话来说就是:对称协程就是说协程之间人人平等,没有谁调用谁一说,大家都是一样的,而非对称协程就是协程之间存在明显的调用关系。
简单来说就是这样:
其实两者的实现我觉得其实差异不大,非对称协程其实就是拥有调用栈,而非对称协程则是大家都平等,不需要调用栈,只需要一个数据结构存储所有未执行完的协程即可。
至于哪种更优?这个需要分情况:
如果你使用协程的目的是为了优化一些 IO 密集型应用,那么协程切换出去的时候就是它等待事件到来的时候,此时你就算切换过去也没有什么意义,还不如等到事件到来的时候自动切换回去。
其实上面说的是有一些问题,因为这个执行权的切换实际上是(调用者–被调用者)之间的切换,对称就是它们之间都是平等的,就是假如A协程执行了B,C协程,那么B协程可以切换回A,也可以切换回C;而非对称只能是B切换回A,A切换回C,C再切换回A,以此类推。
这样看起来显然非对称协程相比之下更为符合我们的认知,因为对称协程目前我不知道如何选择一个合适的协程来获得CPU执行权,正如上面所说,此协程可能正在等待事件;当然如果调度算法足够优秀的话,对称协程也是可取的。
我们知道,和线程绑定的协程只有在对应线程运行的时候才有被执行的可能,如果对应线程中的某一个协程完全占有了当前线程,那么当前线程中的其他所有协程都不会被执行。
同时,协程的所有信息都保存在上下文(Contex)对象中,将不同上下文分发给不同的线程就可以实现协程的跨线程执行,如此,协程被阻塞的概率将减小。
因此,借用 BRPC 中对 N:M
协程的介绍,来解释下什么是 N:M
协程。
我们常说的协程通常指的是
N:1
线程库,即所有的协程运行于一个系统线程中,计算能力和各类eventloop库等价;由于不跨线程,协程之间的切换不需要系统调用,可以非常快(100ns-200ns),受 cache 一致性的影响也小;
但代价是协程无法高效地利用多核,代码必须非阻塞,否则所有的协程都被卡住……
bthread
是一个 M:N
线程库,一个bthread
被卡住不会影响其他bthread
。
其中的关键技术有两点:
前者让 bthread 更快地被调度到更多的核心上,后者让 bthread 和 pthread 可以相互等待和唤醒,这两点协程都不需要;
更多brpc的线程见:
https://github.com/apache/incubator-brpc/blob/master/docs/cn/threading_overview.md
这么看来 貌似 bthread 自己实现了 golang 的 goroutine?
表面看起来的却如此:两者都实现了 M:N 用户态线程。但是事实上, golang 中的 goroutine 的实现要更为复杂一些:
bthread 的设计比较接近 go 1.0 版本:OS 线程不会动态增加,在有大量的阻塞性 syscall 下,会有影响。
而 go 1.1 之后的设计就是动态增减 OS 线程,而且提供了 LockOSThread,可以让 goroutine 和 OS 线程 1:1。
关于这个问题,见:https://www.zhihu.com/question/65549422
通过上面的描述,N:M
模式下的协程其实就是可用户确定调度顺序的用户态线程,与系统级线程对照可以将协程框架分为以下几个模块:
协程的调度与 OS 线程调度十分相似,如下图协程调度示例所示:
系统级线程有锁(mutex)、条件变量(condition)等工具,协程也有对应的工具;比如:libgo 提供了协程之间使用的锁 Co_mutex/Co_rwmutex
。
不同协程框架对工具的支持程度不同,实现方式也不尽相同;对此问题,本文不做深入介绍。
系统级线程和协程处于不同的系统层级,所以两者的同步工具不完全通用,如果在协程中使用了线程的锁(例如:std::mutex
),则整个线程将会被阻塞,当前线程将不会再调度与执行其他协程。
最简单的例子:
如果在一个协程中使用了
sleep
,那么这个线程下的所有协程全部都会被阻塞。****在使用协程时,这种方法是非常低效的。
协程的目的在于剔除线程的阻塞,尽可能提高 CPU 的利用率。很多服务在处理业务时需要请求第三方服务,向第三方服务发起 RPC 调用;RPC 调用的网络耗时一般耗时在毫秒级别,RPC 服务的处理耗时也可能在毫秒级别,如果当前服务使用同步调用,即 RPC 返回后才进行后续逻辑,那么一条线程每秒处理的业务数量是可以估算的。
假设每次业务处理花费在 RPC 调用上的耗时是 20ms,那么一条线程一秒最多处理 50 次请求。
如果在等待 RPC 返回时当前线程没有被系统调度转换为 Ready 状态,那当前 CPU 核心就会空转,浪费了 CPU 资源!通过增加线程数量提高系统吞吐量的效果非常有限,而且创建大量线程也会造成其他问题。
协程虽然不一定能减少一次业务请求的耗时,但一定可以提升系统的吞吐量:
虽然 C++ 20 标准中引入了协程,但是 C++20 只引入了协程需要的底层支持,所以直接使用相对比较难,不过很多库已经提供了封装,比如:
需要说明的是:C++20 协程的性能还是非常高的,等 C++23 提供简化后的 lib,我们就可以非常方便地使用协程了。
就目前而言,编译协程相关代码需要 g++10 或者更高版本(clang++12 对协程支持有限):
可以通过下面的命令安装:
Mac: brew install [email protected]
;Ubuntu: apt install gcc-10
/apt install g++-10
;
下面我写了一个使用 C++20 标准中协程的例子:
cpp20_demo/cpp_20_demo.cc
#include <coroutine>
#include <iostream>struct HelloCoroutine {
struct HelloPromise {
HelloCoroutine get_return_object() {
return std::coroutine_handle<HelloPromise>::from_promise(*this);
}
std::suspend_never initial_suspend() { return {}; }
std::suspend_always final_suspend() noexcept { return {}; }
void unhandled_exception() {}
};
using promise_type = HelloPromise;
HelloCoroutine(std::coroutine_handle<HelloPromise> h) : handle(h) {}
std::coroutine_handle<HelloPromise> handle;
};
HelloCoroutine hello() {
std::cout << "Hello " << std::endl;
co_await std::suspend_always{};
std::cout << "world!" << std::endl;
}
int main() {
HelloCoroutine coro = hello();
std::cout << "calling resume" << std::endl;
coro.handle.resume();
std::cout << "destroy" << std::endl;
coro.handle.destroy();
return 0;
}
编译执行后输出:
Hello
calling resume
world!
destroy
由于篇幅有限,这里不再详述C++20标准中的协程使用了;
如果想更深入的学习,可以参考:
《C++20 - The Complete Guide》——Nicolai M. Josuttis,作者官网值得一看; 如何编写 C++ 20 协程(Coroutines) 协程入门 https://cloud.tencent.com/developer/article/1882417 https://en.cppreference.com/w/cpp/language/coroutines https://www.scs.stanford.edu/~dm/blog/c++-coroutines.html
上面文章的内容基本上已经把整个协程介绍的七七八八了。看了这么多内容,你是不是心动想要自己动手写一个协程库了呢?
那么,跟随下面的内容,一起使用C++实现协程吧。是的,有栈协程、无栈协程都会实现一遍。
首先我们来使用汇编来实现一个有栈协程,这里参考的是微信开源的 libco;
源代码:https://github.com/JasonkayZK/cpp-learn/tree/coroutine/stack_co
本例中实现的协程不支持跨线程,而是每个线程分配一个环境,来维护该线程下运行中的协程之间的层次关系,代码如下:
stack_co/environment.h
#ifndef COROUTINE_ENVIRONMENT_H
#define COROUTINE_ENVIRONMENT_H#include "coroutine.h"
#include <cstddef>
#include <cstring>
#include <functional>
#include <memory>
namespace stack_co {
class Coroutine;
class Environment {
friend class Coroutine;
public:
// Thread-local instance
static Environment &instance();
// Factory method
template<typename Entry, typename ...Args>
std::shared_ptr<Coroutine> create_coroutine(Entry &&entry, Args &&...arguments);
// No copy constructor
Environment(const Environment &) = delete;
// No Assignment Operator
Environment &operator=(const Environment &) = delete;
// Get current coroutine in the stack
Coroutine *current();
private:
// No explicit constructor
Environment();
void push(std::shared_ptr<Coroutine> coroutine);
void pop();
private:
// Coroutine calling stack
std::array<std::shared_ptr<Coroutine>, 1024> _c_stack;
// Top of the coroutine calling stack
size_t _c_stack_top;
// Main coroutine(root)
std::shared_ptr<Coroutine> _main;
};
// A default factory method
template<typename Entry, typename ...Args>
inline std::shared_ptr<Coroutine> Environment::create_coroutine(Entry &&entry, Args &&...arguments) {
return std::make_shared<Coroutine>(
this, std::forward<Entry>(entry), std::forward<Args>(arguments)...);
}
} // namespace stack_co
#endif //COROUTINE_ENVIRONMENT_H
上面的代码定义了协程运行的环境(Environment)。
需要注意的是:
我们显式的删除了 Environment 的拷贝构造函数和赋值运算符,并且将构造函数声明为 private
,仅提供工厂方法来创建 Environment 实例。
而 Environment 在实现时,使用的是 thread_local
,从而保证了每个线程仅会存在单个实例。
对外暴露了 current
方法用于获取当前环境下调用栈中的协程,而三个成员变量是用来保存或记录当前调用协程的:
_c_stack
;_c_stack_top
;_main
;Environment 类对应的实现:
stack_co/environment.cc
#include "environment.h"namespace stack_co {
Environment &Environment::instance() {
static thread_local Environment env;
return env;
}
Coroutine *Environment::current() {
return this->_c_stack[this->_c_stack_top - 1].get();
}
void Environment::push(std::shared_ptr<Coroutine> coroutine) {
_c_stack[_c_stack_top++] = std::move(coroutine);
}
void Environment::pop() {
_c_stack_top--;
}
Environment::Environment() : _c_stack_top(0) {
_main = std::make_shared<Coroutine>(this, []() {});
push(_main);
}
} // namespace stack_co
实现内容比较简单,主要是:
instance
:工厂方法;current
:获取当前环境下栈顶的协程实例;push/pop
:协程压栈/出栈;下面来看协程实例相关的定义。
协程相关的状态在 status.h
头文件中定义了:
stack_co/status.h
#ifndef COROUTINE_STATUS_H
#define COROUTINE_STATUS_Hnamespace stack_co {
// The status of the coroutine
struct Status {
using Bitmask = unsigned char;
constexpr static Bitmask MAIN = 1 << 0;
constexpr static Bitmask IDLE = 1 << 1;
constexpr static Bitmask RUNNING = 1 << 2;
constexpr static Bitmask EXIT = 1 << 3;
Bitmask operator&(Bitmask mask) const { return flag & mask; }
Bitmask operator|(Bitmask mask) const { return flag | mask; }
Bitmask operator^(Bitmask mask) const { return flag ^ mask; }
void operator&=(Bitmask mask) { flag &= mask; }
void operator|=(Bitmask mask) { flag |= mask; }
void operator^=(Bitmask mask) { flag ^= mask; }
Bitmask flag;
};
} // namespace stack_co
#endif //COROUTINE_STATUS_H
协程相关的状态主要包括了下面几类:
并重载了一些运算符。
协程的实例主要是用于支持接口 resume
和 yield
;
代码如下:
stack_co/coroutine.h
#ifndef COROUTINE_COROUTINE_H
#define COROUTINE_COROUTINE_H#include "status.h"
#include "context.h"
#include <functional>
#include <memory>
namespace stack_co {
class Environment;
class Coroutine : public std::enable_shared_from_this<Coroutine> {
friend class Environment;
friend class Context;
public:
static Coroutine ¤t();
// 测试当前控制流是否位于协程上下文
static bool test();
// 获取当前运行时信息
// 目前仅支持运行、退出、主协程的判断
Status runtime() const;
bool exit() const;
bool running() const;
// 核心操作:resume和yield
// usage: Coroutine::current().yield()
static void yield();
// Note1: 允许处于EXIT状态的协程重入,从而再次resume
// 如果不使用这种特性,则用exit() / running()判断
//
// Note2: 返回值可以得知resume并执行后的运行时状态
// 但是这个值只适用于简单的场合
// 如果接下来其它协程的运行也影响了该协程的状态
// 那建议用runtime()获取
Status resume();
Coroutine(const Coroutine &) = delete;
Coroutine(Coroutine &&) = delete;
Coroutine &operator=(const Coroutine &) = delete;
Coroutine &operator=(Coroutine &&) = delete;
public:
// 构造Coroutine执行函数,entry为函数入口,对应传参为arguments...
// Note: 出于可重入的考虑,entry强制为值语义
template<typename Entry, typename ...Args>
Coroutine(Environment *master, Entry entry, Args ...arguments)
: _entry([=] { entry(/*std::move*/(arguments)...); }),
_master(master) {}
private:
static void call_when_finish(Coroutine *coroutine);
private:
Status _runtime{};
Context _context{};
std::function<void()> _entry;
Environment *_master;
};
} // namespace stack_co
#endif //COROUTINE_COROUTINE_H
在 Coroutine 中定义了:
_runtime
:当前线程的状态;_context
:当前协程的上下文信息(核心);_entry
:协程函数入口;_master
:协程调用环境;对应的方法实现:
stack_co/coroutine.cc
#include "coroutine.h"
#include "environment.h"namespace stack_co {
Coroutine &Coroutine::current() {
return *Environment::instance().current();
}
bool Coroutine::test() {
return current()._context.test();
}
Status Coroutine::runtime() const {
return _runtime;
}
bool Coroutine::exit() const {
return _runtime & Status::EXIT;
}
bool Coroutine::running() const {
return _runtime & Status::RUNNING;
}
Status Coroutine::resume() {
if (!(_runtime & Status::RUNNING)) {
_context.prepare(Coroutine::call_when_finish, this);
_runtime |= Status::RUNNING;
_runtime &= ~Status::EXIT;
}
auto previous = _master->current();
_master->push(shared_from_this());
_context.switch_from(&previous->_context);
return _runtime;
}
void Coroutine::yield() {
auto &coroutine = current();
auto ¤tContext = coroutine._context;
coroutine._master->pop();
auto &previousContext = current()._context;
previousContext.switch_from(¤tContext);
}
void Coroutine::call_when_finish(Coroutine *coroutine) {
auto &routine = coroutine->_entry;
auto &runtime = coroutine->_runtime;
if (routine) routine();
runtime ^= (Status::EXIT | Status::RUNNING);
// coroutine->yield();
yield();
}
} // namespace stack_co
协程内部的各种操作主要是调用其内部的 Context 实现的,下面我们来看。
上下文信息 Context
用于维护协程 Coroutine 的函数调用信息。
需要注意的是:上下文需要确保内存布局准确无误才能使用,一个context
的起始地址必须是regs[0]
,否则会影响后面的协程切换正确性。
代码如下:
stack_co/context.h
#ifndef COROUTINE_CONTEXT_H
#define COROUTINE_CONTEXT_H#include <cstddef>
#include <cstring>
#include <iterator>
namespace stack_co {
class Coroutine;
/**
* The context of coroutine(in x86-64)
*
* low | _registers[0]: r15 |
* | _registers[1]: r14 |
* | _registers[2]: r13 |
* | _registers[3]: r12 |
* | _registers[4]: r9 |
* | _registers[5]: r8 |
* | _registers[6]: rbp |
* | _registers[7]: rdi |
* | _registers[8]: rsi |
* | _registers[9]: ret |
* | _registers[10]: rdx |
* | _registers[11]: rcx |
* | _registers[12]: rbx |
* hig | _registers[13]: rsp |
*
*/
class Context final {
public:
using Callback = void (*)(Coroutine *);
using Word = void *;
constexpr static size_t STACK_SIZE = 1 << 17;
constexpr static size_t RDI = 7;
constexpr static size_t RSI = 8;
constexpr static size_t RET = 9;
constexpr static size_t RSP = 13;
public:
void prepare(Callback ret, Word rdi);
void switch_from(Context *previous);
bool test();
private:
Word get_stack_pointer();
void fill_registers(Word sp, Callback ret, Word rdi, ...);
private:
/**
* We must ensure that registers are at the top of the memory layout.
*
* So the Context must have no virtual method, and len at least 14!
*/
Word _registers[14];
char _stack[STACK_SIZE];
};
} // namespace stack_co
#endif //COROUTINE_CONTEXT_H
对应的 C++ 文件:
stack_co/context.cc
#include "context.h"extern "C" {
extern void switch_context(stack_co::Context *, stack_co::Context *) asm("switch_context");
}
namespace stack_co {
void Context::switch_from(Context *previous) {
switch_context(previous, this);
}
void Context::prepare(Context::Callback ret, Context::Word rdi) {
Word sp = get_stack_pointer();
fill_registers(sp, ret, rdi);
}
bool Context::test() {
char current;
ptrdiff_t diff = std::distance(std::begin(_stack), ¤t);
return diff >= 0 && diff < STACK_SIZE;
}
Context::Word Context::get_stack_pointer() {
auto sp = std::end(_stack) - sizeof(Word);
sp = decltype(sp)(reinterpret_cast<size_t>(sp) & (~0xF));
return sp;
}
void Context::fill_registers(Word sp, Callback ret, Word rdi, ...) {
::memset(_registers, 0, sizeof _registers);
auto pRet = (Word *) sp;
*pRet = (Word) ret;
_registers[RSP] = sp;
_registers[RET] = *pRet;
_registers[RDI] = rdi;
}
} // namespace stack_co
其中,C++中的实现使用了汇编:
stack_co/switch_context.S
.globl switch_context
.type switch_context, @function
switch_context:
movq %rsp, %rax
movq %rax, 104(%rdi)
movq %rbx, 96(%rdi)
movq %rcx, 88(%rdi)
movq %rdx, 80(%rdi)
movq 0(%rax), %rax
movq %rax, 72(%rdi)
movq %rsi, 64(%rdi)
movq %rdi, 56(%rdi)
movq %rbp, 48(%rdi)
movq %r8, 40(%rdi)
movq %r9, 32(%rdi)
movq %r12, 24(%rdi)
movq %r13, 16(%rdi)
movq %r14, 8(%rdi)
movq %r15, (%rdi) movq 48(%rsi), %rbp
movq 104(%rsi), %rsp
movq (%rsi), %r15
movq 8(%rsi), %r14
movq 16(%rsi), %r13
movq 24(%rsi), %r12
movq 32(%rsi), %r9
movq 40(%rsi), %r8
movq 56(%rsi), %rdi
movq 72(%rsi), %rax
movq 80(%rsi), %rdx
movq 88(%rsi), %rcx
movq 96(%rsi), %rbx
movq 64(%rsi), %rsi
movq %rax, (%rsp)
xorq %rax, %rax
ret
上面的 Context 的核心功能 switch_context
主要就是通过汇编 stack_co/switch_context.S
实现的,主要核心就是一个switch
过程。
这里调用时rdi
(previous)和rsi
(next)分别指向Context
实例的地址。首先是保存当前的寄存器上下文到 previous 的 _registers 中:
rsp
存放到 previous 的 104 中(13*8,可能是位于栈区的rsp,也可能是协程伪造的rsp),而返回地址放到previous的 72 中;恢复过程则是从next
的_registers中恢复:
preapre
方法把必要的 ret 和函数传参rdi被写到_registers上了,因此恢复时相当于直接调用对应函数(既调用callWhenFinish(next)
,里面嵌套着实际的用户回调);rsp
覆盖 return address
,然后使用 ret
指令执行后就能切换到对应的控制流。具体的汇编含义在前文中已经完完整整讲述了,这里不再赘述;
而其他的方法,如:prepare
、get_stack_pointer
、fill_registers
实际上都是为了获取当前调用栈的上下文信息;
补充:汇编扩展名的差异
上文中的汇编文件命名为:
switch_context.S
,在Unix/Linux系统中:
.a
是静态库的常用扩展(也就是用多个.o
文件制作的档案ar(1)
),动态库,即共享对象,使用.so
;.s
用于asm编译器输出(gcc -S foo.c
生成asm输出,默认文件名为foo.s
);.S
用于手写的asm源文件,并且.S
适用于GNUas
语法中的asm,无论是否使用任何C预处理器功能;例如,在 glibc的源代码树中使用
.S
的所有ASM源文件;通常情况下:
具有gcc背景的人可能将他们的MIPS asm放入文件 .S
或.s
文件中;而具有更多NASM/YASM经验(或Windows)的人可能会选择 .asm
扩展名;但是建议不要使用
.s
文件,因为它很容易被覆盖:gcc -S foo.c
;参考文章:汇编文件:.a .s .asm之间的差异
测试代码如下:
stack_co/stack_co_test.cc
#include "coroutine.h"
#include "environment.h"
#include "utils.h"#include <iostream>
namespace stack_co {
namespace this_coroutine {
inline void yield() {
return ::stack_co::Coroutine::yield();
}
} // namespace this_coroutine
inline bool test() {
return Coroutine::test();
}
inline Environment &open() {
return Environment::instance();
}
} // namespace stack_co
void where() {
std::cout << "running code in a "
<< (stack_co::test() ? "coroutine" : "thread")
<< std::endl;
}
void print1() {
std::cout << 1 << std::endl;
stack_co::this_coroutine::yield();
std::cout << 2 << std::endl;
}
void print2(int i, stack_co::Coroutine *co1) {
std::cout << i << std::endl;
co1->resume();
where();
std::cout << "bye" << std::endl;
}
int main() {
auto &env = stack_co::open();
auto co1 = env.create_coroutine(print1);
auto co2 = env.create_coroutine(print2, 3, co1.get());
co1->resume();
co2->resume();
where();
return 0;
}
上面的代码首先在 main 函数中创建了一个 Environment,随后加入了两个函数:
auto co1 = env.create_coroutine(print1);
auto co2 = env.create_coroutine(print2, 3, co1.get());
随后启动两个协程;
首先进入 print1
,打印 1
;
然后, print1
释放 CPU,切换至 print2
打印 3
;
然后,在 print2
函数中回复协程1,继续进入 print1
中执行,并打印 2
;
然后,print1
函数退出,调用栈返回至 print2
中,调用 where
函数;
然后,在 print2
函数中打印 bye
;
最后,print2
函数返回,在main函数中调用 where
;
代码执行后,输出结果如下:
1
3
2
running code in a coroutine
bye
running code in a thread
可以看到,跟随着代码来看协程的调用栈的切换是很清晰的!
实际上微信开源的 libco 不仅提供了一套类 pthread 的协程通信机制,同时可以零改造地将三方库的阻塞 IO 调用进行协程化;
感兴趣的可以看:微信 libco 协程库源码分析
ucontext
实现的无栈协程上面的例子是使用汇编实现的有栈协程,相对应的,我们继续使用 ucontext
库来实现一个无栈协程;
源代码:https://github.com/JasonkayZK/cpp-learn/tree/coroutine/stackless_co
为了简单起见,我们这里定义的协程可以调用的函数签名为:
stackless_co/utils.h
typedef void (*coroutine_func)(Schedule *, void *ud);
在调用时,可以传入一个 arg 结构体,来使用;
例如:
struct args {
int n;
};
作为参数 *ud
;
同时,考虑到参数的通用性,这里使用了
void*
作为入参和返回值;
协程的定义如下:
stackless_co/coroutine.h
#ifndef COROUTINE_COROUTINE_H
#define COROUTINE_COROUTINE_H#include "utils.h"
#include "schedule.h"
#include <cstdio>
#include <cstdlib>
#include <cassert>
#include <cstddef>
#include <cstring>
#include <cstdint>
#if __APPLE__ && __MACH__
#include <sys/ucontext.h>
#else
#include <ucontext.h>
#endif
namespace stackless_co {
class Schedule;
class Coroutine {
public:
static Coroutine *new_co(Schedule *s, coroutine_func func, void *ud);
void delete_co();
inline coroutine_func get_func() {
return func;
}
inline ucontext_t *get_ctx() {
return &ctx;
}
inline int get_status() {
return status;
}
inline ptrdiff_t get_size() {
return this->size;
}
inline char *get_stack() {
return this->stack;
}
inline ptrdiff_t get_cap() {
return this->cap;
}
inline void *get_ud() {
return this->ud;
}
inline void set_status(int status) {
this->status = status;
}
inline void set_stack(char *stack) {
this->stack = stack;
}
inline void set_cap(ptrdiff_t cap) {
this->cap = cap;
}
inline void set_size(ptrdiff_t size) {
this->size = size;
}
private:
coroutine_func func;
void *ud;
ucontext_t ctx;
ptrdiff_t cap;
ptrdiff_t size;
int status;
char *stack;
};
} // namespace stackless_co
#endif //COROUTINE_COROUTINE_H
协程 Coroutine 的定义比较简单,主要用于存放一些协程的信息,并无特殊逻辑;
具体的几个成员变量定义如下:
func
:协程所用的函数;ud
:协程参数;ctx
:协程上下文;cap
:已经分配的内存大小;size
:当前协程运行时栈,保存起来后的大小;status
:协程当前的状态;stack
:当前协程的保存起来的运行时栈。并且:
coroutine_new
负责创建并初始化一个新协程对象,同时将该协程对象放到协程调度器里面;delete_co
用于关闭当前协程,并释放协程中的资源。对应的实现:
stackless_co/coroutine.cc
#include "utils.h"
#include "coroutine.h"
#include "schedule.h"namespace stackless_co {
Coroutine *Coroutine::new_co(Schedule *s, coroutine_func func, void *ud) {
auto *co = new(Coroutine);
co->func = func;
co->ud = ud;
co->cap = 0;
co->size = 0;
co->status = Schedule::COROUTINE_READY;
co->stack = nullptr;
return co;
}
void Coroutine::delete_co() {
free(this->stack);
free(this);
}
} // namespace stackless_co
方法实现非常简单,这里不再赘述了;
我们通过 Schedule 类来调度协程;
stackless_co/schedule.h
#ifndef COROUTINE_SCHEDULE_H
#define COROUTINE_SCHEDULE_H#include "utils.h"
#include "coroutine.h"
#include <cstdio>
#include <cstdlib>
#include <cassert>
#include <cstring>
#include <cstdint>
#if __APPLE__ && __MACH__
#include <sys/ucontext.h>
#else
#include <ucontext.h>
#endif
namespace stackless_co {
class Coroutine;
class Schedule {
private:
static void _save_stack(Coroutine *C, char *top);
public:
static Schedule *coroutine_open();
static void main_func(uint32_t low32, uint32_t hi32);
void coroutine_close();
int coroutine_new(coroutine_func, void *ud);
void coroutine_resume(int id);
int coroutine_status(int id);
int coroutine_running() const;
void coroutine_yield();
public:
constexpr static int COROUTINE_DEAD = 0;
constexpr static int COROUTINE_READY = 1;
constexpr static int COROUTINE_RUNNING = 2;
constexpr static int COROUTINE_SUSPEND = 3;
private:
constexpr static int STACK_SIZE = 1024 * 1024;
constexpr static int DEFAULT_COROUTINE = 16;
private:
char stack[STACK_SIZE];
ucontext_t main;
int nco;
int cap;
int running;
Coroutine **co;
};
} // namespace stackless_co
#endif //COROUTINE_SCHEDULE_H
协程调度器 Schedule
负责管理用其创建的所有协程,其中有几个成员变量非常重要:
Coroutine **co
:是一个一维数组,存放了目前其管理的所有协程;ucontext_t main
:主协程的上下文,方便后面协程执行完后切回到主协程;char stack[STACK_SIZE]
:所有协程的运行时栈,具体共享栈的原理会在下文讲到。此外:
coroutine_open
是 Schedule
的工厂方法,负责创建并初始化一个协程调度器;coroutine_close
负责销毁协程调度器以及清理其管理的所有协程;coroutine_resume/coroutine_resume
分别用于释放、恢复当前协程。对应实现如下:
stackless_co/schedule.cc
#include "utils.h"
#include "schedule.h"
#include "coroutine.h"#include <cstdlib>
#include <cassert>
#include <cstring>
#include <cstdint>
#if __APPLE__ && __MACH__
#include <sys/ucontext.h>
#else
#include <ucontext.h>
#endif
namespace stackless_co {
Schedule *Schedule::coroutine_open() {
auto *s = new(Schedule);
s->nco = 0;
s->cap = DEFAULT_COROUTINE;
s->running = -1;
s->co = (Coroutine **) malloc(sizeof(Coroutine) * s->cap);
memset(s->co, 0, sizeof(struct coroutine *) * s->cap);
return s;
}
void Schedule::main_func(uint32_t low32, uint32_t hi32) {
uintptr_t ptr = (uintptr_t) low32 | ((uintptr_t) hi32 << 32);
auto *s = (Schedule *) ptr;
int id = s->running;
Coroutine *c = s->co[id];
c->get_func()(s, c->get_ud());
c->delete_co();
s->co[id] = nullptr;
--s->nco;
s->running = -1;
}
void Schedule::coroutine_close() {
int i;
for (i = 0; i < this->cap; i++) {
Coroutine *inner_co = this->co[i];
if (inner_co) {
inner_co->delete_co();
}
}
free(this->co);
this->co = nullptr;
free(this);
}
int Schedule::coroutine_new(coroutine_func func, void *ud) {
Coroutine *inner_co = Coroutine::new_co(this, func, ud);
if (this->nco >= this->cap) {
int id = this->cap;
this->co = (Coroutine **) realloc(this->co, this->cap * 2 * sizeof(Coroutine));
memset(this->co + this->cap, 0, sizeof(struct coroutine *) * this->cap);
this->co[this->cap] = inner_co;
this->cap *= 2;
++this->nco;
return id;
} else {
int i;
for (i = 0; i < this->cap; i++) {
int id = (i + this->nco) % this->cap;
if (this->co[id] == nullptr) {
this->co[id] = inner_co;
++this->nco;
return id;
}
}
}
return 0;
}
void Schedule::coroutine_resume(int id) {
assert(this->running == -1);
assert(id >= 0 && id < this->cap);
Coroutine *c = this->co[id];
if (c == nullptr) return;
int status = c->get_status();
auto ptr = (uintptr_t) this;
switch (status) {
case COROUTINE_READY:
getcontext(c->get_ctx());
c->get_ctx()->uc_stack.ss_sp = this->stack;
c->get_ctx()->uc_stack.ss_size = STACK_SIZE;
c->get_ctx()->uc_link = &this->main;
this->running = id;
c->set_status(COROUTINE_RUNNING);
makecontext(c->get_ctx(), (void (*)()) main_func, 2, (uint32_t) ptr, (uint32_t) (ptr >> 32));
swapcontext(&this->main, c->get_ctx());
break;
case COROUTINE_SUSPEND:
memcpy(this->stack + STACK_SIZE - c->get_size(), c->get_stack(), c->get_size());
this->running = id;
c->set_status(COROUTINE_RUNNING);
swapcontext(&this->main, c->get_ctx());
break;
default:
assert(0);
}
}
int Schedule::coroutine_status(int id) {
assert(id >= 0 && id < this->cap);
if (this->co[id] == nullptr) {
return COROUTINE_DEAD;
}
return this->co[id]->get_status();
}
int Schedule::coroutine_running() const {
return this->running;
}
void Schedule::coroutine_yield() {
int id = this->running;
assert(id >= 0);
Coroutine *c = this->co[id];
assert((char *) &c > this->stack);
_save_stack(c, this->stack + STACK_SIZE);
c->set_status(COROUTINE_SUSPEND);
this->running = -1;
swapcontext(c->get_ctx(), &this->main);
}
void Schedule::_save_stack(Coroutine *c, char *top) {
char dummy = 0;
assert(top - &dummy <= STACK_SIZE);
if (c->get_cap() < top - &dummy) {
free(c->get_stack());
c->set_cap(top - &dummy);
c->set_stack(static_cast<char *>(malloc(c->get_cap())));
}
c->set_size(top - &dummy);
memcpy(c->get_stack(), &dummy, c->get_size());
}
} // namespace stackless_co
下面分别来看;
int Schedule::coroutine_new(coroutine_func func, void *ud) {
Coroutine *inner_co = Coroutine::new_co(this, func, ud); if (this->nco >= this->cap) {
int id = this->cap;
this->co = (Coroutine **) realloc(this->co, this->cap * 2 * sizeof(Coroutine));
memset(this->co + this->cap, 0, sizeof(struct coroutine *) * this->cap);
this->co[this->cap] = inner_co;
this->cap *= 2;
++this->nco;
return id;
} else {
int i;
for (i = 0; i < this->cap; i++) {
int id = (i + this->nco) % this->cap;
if (this->co[id] == nullptr) {
this->co[id] = inner_co;
++this->nco;
return id;
}
}
}
return 0;
}
coroutine_new
负责创建并初始化一个新协程对象,同时将该协程对象放到协程调度器里面。
这里的实现有两个非常值得学习的点:
nco
已经等于协程调度器的容量 cap
了,这个时候需要对协程调度器进行扩容,这里直接就是非常经典简单的 2 倍扩容;nco
位开始寻找(nco
代表当前存活的个数;因为一般来说,前面几位最开始都是存活的,从第 nco
位开始找,效率会更高。这样,一个协程对象就被创建好,此时该协程的状态是 READY
,但尚未正式执行。
我们需要调用 coroutine_resume
方法启动协程,下面来看 coroutine_resume
方法。
调用 coroutine_resume
方法会切入到指定协程中执行,此时,当前正在执行的协程的上下文会被保存起来,同时上下文替换成新的协程,并将该协程的状态置为 RUNNING
。
进入 coroutine_resume
函数的前置状态有两个 READY
和 SUSPEND
,这两个状态下 coroutine_resume
的处理方法也是有很大不同。我们先看下协程在 READY 状态下进行 coroutine_resume
的流程:
这块代码比较短,但是非常重要,所以我就直接贴代码了:
// 初始化 ucontext_t 结构体,将当前的上下文放到 C->ctx 里面
getcontext(c->get_ctx());// 将当前协程的运行时栈的栈顶设置为 s->stack,每个协程都这么设置,这就是所谓的共享栈。(注意,这里是栈顶)
c->get_ctx()->uc_stack.ss_sp = this->stack;
c->get_ctx()->uc_stack.ss_size = STACK_SIZE;
c->get_ctx()->uc_link = &this->main;
this->running = id;
c->set_status(COROUTINE_RUNNING);
// 设置执行 c->ctx 函数, 并将 s 作为参数传进去
makecontext(c->get_ctx(), (void (*)()) main_func, 2, (uint32_t) ptr, (uint32_t) (ptr >> 32));
// 将当前的上下文放入 s->main 中,并将 c->ctx 的上下文替换到当前上下文
swapcontext(&this->main, c->get_ctx());
这段函数非常的重要,有几个不可忽视的点:
getcontext(c->get_ctx());
初始化 ucontext_t 结构体,将当前的上下文放到 c->ctx
里面;c->get_ctx()->uc_stack.ss_sp = this->stack;
设置当前协程的运行时栈,也是共享栈;c->get_ctx()->uc_link = &this->main;
如果协程执行完,则切换到 s->main
主协程中进行执行;如果不设置,则默认为 nullptr,那么协程执行完,整个程序就结束了。接下来是 makecontext
,这个函数用来设置对应 ucontext 的执行函数;如上,将 c->ctx
的执行函数体设置为了 mainfunc
。
makecontext
后面的两个参数也非常有意思:
可以看出来其入参是把一个指针掰成了两个 int 作为参数传给 mainfunc
;而在 mainfunc
的实现可以看到,其又会把这两个 int 拼成 Schedule*
。
为什么不直接传 Schedule*
,而要这么做,通过先拆两半,再在函数中拼起来呢?
这是因为 makecontext
的函数指针的参数是 uint32_t
类型,在 64 位系统下,一个 uint32_t
没法承载一个指针, 所以基于兼容性的考虑,才采用了这种做法;
接下来调用了 swapcontext
函数,这个函数比较简单,但也非常核心:
其作用是将当前的上下文内容放入 s->main
中,并使用 c->ctx
的上下文替换到当前上下文(类似于前文汇编的作用)。
这样的话,就会执行新的上下文对应的程序了;(在 coroutine 中, 也就是开始执行 mainfunc
这个函数,mainfunc
是对用户提供的协程函数的封装)。
调用 coroutine_yield
可以使当前正在运行的协程切换到主协程中运行;此时,该协程会进入 SUSPEND
状态。
coroutine_yield
的具体实现依赖于两个行为:
_save_stack
将当前协程的栈保存起来,本例中协程的实现是基于共享栈的,所以协程的栈内容需要单独保存起来;swapcontext
将当前上下文保存到当前协程的 ucontext 里面,同时替换当前上下文为主协程的上下文;这样的话,当前协程会被挂起,主协程会被继续执行。这里有个点极其关键,就是:如何保存当前协程的运行时栈,即如何获取整个栈的内存空间;
注:我们都知道,调用栈的生长方向是从高地址往低地址;
因此,我们只要找到栈的栈顶和栈底的地址,就可以找到整个栈内存空间了。
因为协程的运行时栈的内存空间是自己分配的(在 coroutine_resume 阶段设置了 c->ctx.uc_stack.ss_sp = s.this->stack
)。
根据以上理论,栈的生长方向是高地址到低地址,因此:
栈底的就是内存地址最大的位置,即 s->stack + STACK_SIZE
就是栈底位置。
那么,如何找到栈顶的位置呢?是通过下面的方法做的:
void Schedule::_save_stack(Coroutine *c, char *top) {
char dummy = 0;
assert(top - &dummy <= STACK_SIZE);
if (c->get_cap() < top - &dummy) {
free(c->get_stack());
c->set_cap(top - &dummy);
c->set_stack(static_cast<char *>(malloc(c->get_cap())));
} c->set_size(top - &dummy);
memcpy(c->get_stack(), &dummy, c->get_size());
}
这里特意使用到了一个 dummy 变量,这个 dummy 的作用非常关键也非常巧妙。
因为 dummy 变量是刚刚分配到栈上的,因此,此时就位于 栈的最顶部位置。
并且,此时整个内存布局如下图所示:
因此整个栈的大小就是从栈底到栈顶,s->stack + STACK_SIZE - &dummy
。
最后又调用了 memcpy 将当前运行时栈的内容,拷贝到了 c->stack
中保存了起来。
当协程被 yield
之后会进入 SUSPEND
阶段,对该协程调用 coroutine_resume
会再次切入该协程。
这部分的代码如下:
memcpy(this->stack + STACK_SIZE - c->get_size(), c->get_stack(), c->get_size());
this->running = id;
c->set_status(COROUTINE_RUNNING);
swapcontext(&this->main, c->get_ctx());
这里的实现有两个重要的点:
memcpy(this->stack + STACK_SIZE - c->get_size(), c->get_stack(), c->get_size());
:我们知道,在 yield
的时候,协程的栈内容保存到了 C->stack 数组中;这个时候,就是用 memcpy
把协程的之前保存的栈内容,重新拷贝到运行时栈里面;这里有个点,拷贝的开始位置,需要简单计算下 s->stack + STACK_SIZE - c->size
这个位置就是之前协程的栈顶位置;swapcontext(&this->main, c->get_ctx());
交换上下文;这点在上文有具体描述。共享栈这个词在 libco 中提到的多,其实 coroutine 也是用的共享栈模型;
共享栈这个东西说起来很玄乎,实际原理不复杂:本质就是所有的协程在运行的时候都使用同一个栈空间。
有共享栈自然就有非共享栈,也就是每个协程的栈空间都是独立的,固定大小:
因为栈空间在运行时不能随时扩容,否则如果有指针操作执行了栈内存,扩容后将导致指针失效。
因此,为了防止栈内存不够,每个协程都要预先开一个足够的栈空间使用;当然很多协程在实际运行中也用不了这么大的空间,就必然造成内存的浪费和开辟大内存造成的性能损耗。
共享栈则是提前开了一个足够大的栈空间(如上面的实现 STACK_SIZE = 1024 * 1024;
,即1M
大小);所有的栈运行的时候,都使用这个栈空间。
并且设置每个协程的运行时栈:
c->ctx.uc_stack.ss_sp = s->stack;
c->ctx.uc_stack.ss_size = STACK_SIZE;
对协程调用 yield
的时候,该协程栈内容暂时保存起来,保存的时候需要用到多少内存就开多少,这样就减少了内存的浪费(即_save_stack 函数的内容)。
当 resume
该协程的时候,协程之前保存的栈内容,会被重新拷贝到运行时栈中,这就是所谓的共享栈的原理。
具体的测试代码如下:
stackless_co/stackless_co_test.cc
#include "schedule.h"#include <cstdio>
struct args {
int n;
};
void foo(stackless_co::Schedule *s, void *ud) {
args *arg = static_cast<args *>(ud);
int start = arg->n;
for (int i = 0; i < 5; i++) {
printf("coroutine %d : %d\n", s->coroutine_running(), start + i);
s->coroutine_yield();
}
}
void test(stackless_co::Schedule *s) {
struct args arg1 = {0};
struct args arg2 = {100};
int co1 = s->coroutine_new(foo, &arg1);
int co2 = s->coroutine_new(foo, &arg2);
printf("main start\n");
while (s->coroutine_status(co1) && s->coroutine_status(co2)) {
s->coroutine_resume(co1);
s->coroutine_resume(co2);
}
printf("main end\n");
}
int main() {
auto *s = stackless_co::Schedule::coroutine_open();
test(s);
s->coroutine_close();
return 0;
}
上面的代码首先利用 coroutine_open
创建了协程调度器 s
,用来统一管理全部的协程。同时,在 test 函数中,创建了两个协程 co1 和 co2,不断的反复 yield
和 resume
协程,直至两个协程执行完毕。
执行后输出:
main start
coroutine 0 : 0
coroutine 1 : 100
coroutine 0 : 1
coroutine 1 : 101
coroutine 0 : 2
coroutine 1 : 102
coroutine 0 : 3
coroutine 1 : 103
coroutine 0 : 4
coroutine 1 : 104
main end
可以看到,我们实现的代码也可以完成协程的功能。
本文首先介绍了:
随后温习了线程上下文相关的知识,包括:
setjmp/longjmp
、ucontext
、汇编;紧接着介绍了几种协程的实现种类:
然后探讨了关于协程的一些其他内容,包括:
随后是实践部分,包括:
ucontext
实现的无栈协程;附录
源代码:
参考文章:
参考项目: