博客
关于我
Nginx的进程模型简单理解
阅读量:514 次
发布时间:2019-03-07

本文共 1312 字,大约阅读时间需要 4 分钟。

协程机制

协程是线程内的一个内存模型,一个线程可以有多个协程。当我们的协程(如read方法)遇到阻塞的时候,那么系统会立马调用另一个不阻塞的线程来执行read。这样做的好处是,这样就不需要关注什么时候socket的read会返回。因为当read完成,epoll多路复用会执行一个回调。这个回调是一个return函数,read完成会顺序的执行。这样我们的协程机制就是一个同步的,它就不需要进行加锁。

epoll多路复用模型

Java BiO 模型

阻塞IO,当客户端(client)向服务端(server)发起一个请求的时候,socket.write会将数据写入到TCP/IP的缓存区里,TCP/IP缓存区会将数据发送到server。当网络传输较慢/或者client有很多的请求时,一旦缓存区存满会导致client无法发送数据一直在进行等待。

Linux select模型

select 模型的会执行下面的操作

一个server在内部会监听固定数量的client

当其中监听的client有变化的时候会执行遍历操作
遍历操作会唤醒所有的变化的client执行read操作
read操作会读取客户端的数据并返回
但是select模型有很多的监听client的时候一旦一个发生变化其他的大量client都可能会被遍历一遍消耗很大的性能。并且select的监听数上线理论上是1024。

epoll多路复用

epoll多路复用模型是在select模型上进行改进。server理论上可以监听无数个client,并且每一个监听的client都有一个回调函数,如果监听的client有变化。那么会执行回调函数来执行操作。

master-worker

master-worker模型图

在这里插入图片描述
master-worker模型
首先管理员启动nginx的时候系统会建立一个master,master会建立一个或者多个worker。master可以对worker进行管理。而worker会对client进行监听。当其中的多个个client发起请求后,worker会进行一个资源抢占。抢占成功后会建立连接。

当nginx启动worker的时候也会启动epoll多路复用模型,当worker为client抢占资源建立连接后,worker会为client启动epoll多路复用。

nginx/bin -s reload 命令

这条平滑重启命令为什么可以在不进行服务器重启的前提下完成配置文件的载入呢?其实就是因为我们的master-worker模型。我们在执行重启的命令的时候,系统的worker会进行一个销毁。而worker销毁了那不就是client要断开连接吗?这时候master就会将worker的东西全部拿来自己使用。master来负责对client进行一个监听管理。

线程?进程?

每一个 wokrer 中其实只有一个 线程。由于 我们的 worker 采用的是epoll多路复用的模型。每一个 worker 中都通过epoll 来告诉我可以进行read write。这样worker 不会进行阻塞。在不阻塞的情况下调用单线程的速度是会大于多线程的。

转载地址:http://xcwnz.baihongyu.com/

你可能感兴趣的文章
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>