如果gil是低效的设计,与其对应的什么设计是好的替代方案?

回复内容:
早期 linux 也是大内核锁,进内核态就整个上锁,用户态可以并行。big kernel lock 在语义上的好处是不存在死锁,既有的非多线程代码可以利用一点多核的优势。“更好的设计” 并不有趣,只能一点一点地一粒一粒地替换成细力度的锁,这份工作在 linux 社区好像做了很多年。但是 linux 好在并不对 api 做承诺,谁修改了接口,谁就可以自己去修改所有的扩展,不在主线里的扩展不 care,挂就挂,谁让他们不进主线呢。但 python/ruby 这种基于 c 的三方库文化浓厚的松散社区,接口的改动成本太高了,何况效益并不一定显著,比如:确保细粒度锁之后,原本的单线程脚本的性能没有影响?用三方库死锁了怎么规范?网络 io 任务可以用协程缓一缓,那我们弄多线程图啥?计算密集谁用 python?python wiki 里有篇文章比较详细地列了为什么干不掉 gil: globalinterpreterlock如果是新语言,躲开 gil 则相对容易,限制 c 扩展的接口只走 ffi,不暴露解释器的内部实现细节,锁粒度的粗细就只是实现层面的问题了。但这要求语言的性能足够快,这时又成了一个性能和发布时间的权衡。
gil算不得低效的设计。其坏处在于锁的粒度太粗。在我看来lua的设计就很好。lua也有类似于gil的结构,但锁的范围仅限于一个runtime环境。而一个os进程内可以同时存在多个lua runtime环境。这使得一个lua环境里同一时间只能有一个正在执行的语句。想要os进程内的并行执行,可以同时开很多个lua环境,他们之间可以做通信。所以lua只锁住一个lua环境,os进程里可以有多个lua环境一起执行。而python gil的问题在于他是os进程里全局的。导致了不能同时执行python语句。一个环境里用锁来同步使得虚拟机的设计变的简单和高效。这本身无可厚非。java在早期也是如此,但后来java花了很大的精力在环境里做了更细粒度的锁。使得java可以在一个虚拟机环境里并行执行多个线程。这使得java的虚拟机变的复杂了许多,性能也会受到影响,因为代码并不好预测哪些变量和资源需要放到锁保护的区域里,只能全都检查一遍。而将虚拟机环境做一个全局锁就不需要检查每一个变量和资源了。所以我认为好的设计。就是将gil锁的范围从os进程的全局改为虚拟机全局。使得一个os进程里可以同时存在多个虚拟机。每个虚拟机里因为gil的存在只能使用一个cpu核心。但多个虚拟机使得整个os进程可以利用多个cpu核心,同时因为在一个os进程内,数据交换可以直接用引用传递,不涉及内存拷贝带来的巨大开销。
加细粒度的lock实际上会让cpython跑单线程的程序时变慢,楼上一个答案说的还不如加个大锁就是这意思。。大多数人觉得gil不好,移除了多线程就能跑满多核了,这个思考方式有问题。。。移除gil会显著增加cpython实现复杂度,抛开这个不提,写共享内存多线程程序的难度依然不会下降,你在c里会跌的坑,在这里一个不会少。所以顺其自然吧,反正cpython水平也就那样,就不是冲着性能去的。。python想占满多核也简单,做科学计算的话,用theano/numbapro/numexpr优化numpy计算或者cython裸写多线程都行,做高并发服务器的话,multiprocessing直接spawn出子进程来搞啊,而且像pulsar这种框架都帮你做好了
细粒度锁 + stm + tls 呀:用细粒度锁来解决 gil,如今的 mutex 使用 futex 在用户态实现,比原来快很多了。用 stm 来消减核心路径细粒度锁的开销用 tls 来规避 time.time, random.randint 之类的全局函数访问同一个资源时发生的抢占工作量问题。—————接 @fleuria linux内核用了更细粒度锁的问题,为啥 linux 用更细粒度锁不会影响性能,而 python用细粒度锁在没有竞争时又会导致额外开销呢?因为内核用细粒度锁是 spin_lock,即 cmpxchg + while,在多核之间的竞争开销几乎为零,而同核之间并不会出现 spin_lock的开销,因为单核内开始 spin_lock 之前,一般都是把本cpu核心的 irq 给 disable掉的,见linux irq_disable() / local_irq_disable() 等函数的实现,在允许 irq 前不会发生时钟中断导致任务切换。而用户态能不能用 spin_lock呢?几乎不能,因为单核之间如果进入了 spin_lock 没有 unlock时被时钟中断给切走了,那么新调度进来的任务将会进入 spin_lock 的 while (cmpxchg(…) == xxx) ; 循环并且必须不停循环直到几十毫秒后一个时钟片结束被切回到第一个任务里 spin_unlock了,第二个任务才能获得锁并结束循环。这就是因为用户态无法把 irq 给 disable 掉,不能禁止时钟中断导致的任务被动切换后会进入上面的 spin_lock 单核内耗状态。所以用户进程还得使用比内核 spin_lock + irq_disable/enable 组合慢很多倍的 mutex。索性 mutex有了用户态实现的 futex ,能在 lock时用 cmpxchg 先检测一下,如果没有竞就不争必进入内核态了,而真正有竞争时才进入内核态,所以 mutex 的占用比原来降低了不少。所以如今有了 futex后,python 在用户态用更细粒度锁是有可能的,占用比以前少了几个数量级了。然而即便是 futex 的性能也达不到内核态的 spin_lock + irq_disable,任然存在一些微弱的开销,那么在核心路径使用 stm 来解决,将会是一个比较好的搭配。而过分暴露 c 接口给应用程序确实会带来一些问题,会使得细粒度锁和 stm 的实现变得更为复杂,工作量非常大,这也是 gil 存在的真正原因。
——– 2015-02-17 更新 ——–评论区开始变得有意思了。所以做下补充说明。关于 ref count 和锁。我举的例子不恰当。为了避免陷入具体语言实现细节。所以就以简单实际模型来做讨论。结论是:ref count 来实现 gc 的话,不需要 os 提供的 thread lock 就可以。gc, 重点是发现 g, 然后 c.增加引用是不会出现 g 的。增加引用后,其 rec count 值必然 >= 2 (创造 sth 时 ref count 为 1).ref count 变成 0 后,是不会再变成 1 的。要让一个资源被人引用,首先资源必须存在才行。如果编译器实现是没问题的话,只有在语义上那个资源也是不可见时 ref count 才会变成 0。interlocked operation 是什么呢?其实就是一个执行期间保持 lock 信号的,目地操作数为 mem 的一些非串指令(加 减 位运算 位测试等),保证多处理器访问共享内存时的独占问题。这个指令就能避免这样的情况: ref count 为 2 时,两个不同处理器都对其 dec 后结果是 1(应该为0) 。如何实现 gc?

if lockdecr(&sth.ref) then free(sth); /* 实际应用的话, free 前需递归地对所有被 sth 引用的其他资源进行「发现,回收」动作。 */
/* if 发现 sth 为 g then c(sth) */

替代 gil 的更好设计是 coroutine(协程)。既然同一时间只能有一个 thread 在运行,不如让语言的虚拟机自己操作 coroutine stack。gil 是个偷懒的做法,用 c runtime stack 来实现语言的 stack,然后用操作系统的内核调度来模拟 coroutine 自己操作 stack 的实现。推荐一篇文章:working simultaneously vs waiting simultaneously注意其中说 gil isn’t great 的部分,提到了 go 和 erlang 的 context management。其中还提到了 coroutines in one page of c,和 lua coroutine 的实现类似。像 ruby 有 continuation,就可以实现 coroutine 了。不过 full-continuation 的效率比 one-shot continuation (coroutine) 低很多。不知道 ruby 有没有实现后者。实在没有 coroutine,可以像 node.js 那样用回调实现(类似 cps)。不过 python 没有 closure 就没办法了。所以说,gil 低效,但是还不算太糟糕。糟糕的是 python 既用 gil 还没有 closure,ruby 既有 gil 还有 continuation,这些放在一起就不搭了。
gil不是设计,只是对早期没考虑到的问题的fix。所以相反只要考虑到多线程就行了(这里指实现层面,比如拿ruby打比方jruby是可以支持真正多核的,但是ruby因为标准库和很多c扩展没有考虑多线程的情况所以加上了gil)。抛开gil从语言层面上说的话加入类似erlang的actor,rust的task之类特性都可以很轻松的写出正确的多线程程序
锁是共享的,更小粒度的lock应当比global 好

Posted in 未分类