Node.js 服务器在支持回调函数的基于事件的模型上工作。但是我无法理解它比传统的线程等待系统 IO 的基于线程的服务器更好。在基于线程的模型中,当线程需要等待 IO 时,它会被抢占,因此不会消耗 CPU 周期,因此不会增加等待时间。
Node.js 如何缩短等待时间?
最佳答案
when a thread needs to wait for IO, it gets preempted
其实并没有被抢占。抢占是完全不同的东西。发生的情况是线程被阻塞。
对于基于事件的模型,会发生类似的情况。基于事件的解释器基本上是状态机。只是,状态机是抽象的,对用户不可见。当某物正在等待事件时,它会将控制权交还给解释器。当解释器没有其他东西要处理时,它会阻塞自己等待 I/O。只是,与传统的线程代码不同,解释器等待多个 I/O。
在 C 级别发生的事情是解释器正在使用类似 select() 的东西, poll(), epoll() 和 friend (取决于安装的操作系统和库)来阻塞和等待 I/O。
现在,为什么 select()/poll() 基于机制通常表现更好?实际上,这里的“一般” 取决于您的意思。 select()基于服务器在单个进程/线程中执行所有代码。最大的性能提升是它避免了上下文切换——每次操作系统将控制权从一个线程转移到另一个线程时,它必须保存所有相关的寄存器、内存映射、堆栈指针、FPU 上下文等,以便另一个线程可以从中断处恢复执行。这样做的开销可能非常大。
事实上,有一个历史例子可以说明开销是多么极端。早在 2000 年代初期,就有人开始对 Web 服务器进行基准测试。令所有人惊讶的是,tclhttpd跑赢Apache用于提供静态文件。现在,tcl 不仅是一种解释型语言,而且在 2000 年它还是一种非常慢的解释型语言,因为它没有单独的编译阶段(现在有点)。 Tcl 脚本直接以字符串形式解释,使其比 C 语言慢 400 倍左右。Apache显然是用 C 语言编写的,所以是什么在做 tclhttpd更快?
原来是tclhttpd是基于事件的,仅在单个线程上运行,而 Apache是多线程的。常量线程切换的开销结果是 tclhttpd足以比 Apache 表现更好的优势.
当然,总有妥协。单线程服务器,如 tclhttpd或者 node.js 无法利用多个 CPU。早在 2000 年代初期,多个 CPU 并不常见。这些天他们几乎是默认的。更不用说大多数 CPU 也是超线程的(超线程向 CPU 添加硬件以降低上下文切换的成本)。
当今最好的服务器从历史中吸取了教训,并且是两者的结合。 Apache2 , 和 Nginx使用 therad 池:它们是多线程的,但每个线程服务于多个连接。这是两种方法的混合,但管理起来更复杂。
阅读以下文章以获得关于此主题的更深入讨论:The C10K problem
关于javascript - node.js 服务器如何优于基于线程的服务器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3759683/