网站制作毕业设计论文,做视频给网站到流量,西宁 专业网站建设,沈阳做购物网站电话1. Linux下的五种I/O模型 阻塞I/O模型#xff1a; 一直阻塞 应用程序调用一个IO函数#xff0c;导致应用程序阻塞#xff0c;等待数据准备好。 如果数据没有准备好#xff0c;一直等待….数据准备好了#xff0c;从内核拷贝到用户空间,IO函数返回成功指示。 我们 第一…1. Linux下的五种I/O模型 阻塞I/O模型 一直阻塞 应用程序调用一个IO函数导致应用程序阻塞等待数据准备好。 如果数据没有准备好一直等待….数据准备好了从内核拷贝到用户空间,IO函数返回成功指示。 我们 第一次接触到的网络编程都是从 listen()、send()、recv()等接口开始的。使用这些接口可以很方便的构建服务器 /客户机的模型。 在调用recv()/recvfrom函数时发生在内核中等待数据和复制数据的过程。 当调用recv()函数时系统首先查是否有准备好的数据。如果数据没有准备好那么系统就处于等待状态。当数据准备好后将数据从系统缓冲区复制到用户空间然后该函数返回。在套接应用程序中当调用recv()函数时未必用户空间就已经存在数据那么此时recv()函数就会处于等待状态。 当使用socket()函数和WSASocket()函数创建套接字时默认的套接字都是阻塞的。这意味着当调用Windows Sockets API不能立即完成时线程处于等待状态直到操作完成。 并不是所有Windows Sockets API以阻塞套接字为参数调用都会发生阻塞。例如以阻塞模式的套接字为参数调用bind()、listen()函数时函数会立即返回。将可能阻塞套接字的Windows Sockets API调用分为以下四种: 1输入操作 recv()、recvfrom()、WSARecv()和WSARecvfrom()函数。以阻塞套接字为参数调用该函数接收数据。如果此时套接字缓冲区内没有数据可读则调用线程在数据到来前一直睡眠。 2输出操作 send()、sendto()、WSASend()和WSASendto()函数。以阻塞套接字为参数调用该函数发送数据。如果套接字缓冲区没有可用空间线程会一直睡眠直到有空间。 3接受连接accept()和WSAAcept()函数。以阻塞套接字为参数调用该函数等待接受对方的连接请求。如果此时没有连接请求线程就会进入睡眠状态。 4外出连接connect()和WSAConnect()函数。对于TCP连接客户端以阻塞套接字为参数调用该函数向服务器发起连接。该函数在收到服务器的应答前不会返回。这意味着TCP连接总会等待至少到服务器的一次往返时间。 阻 塞模式套接字的不足表现为在大量建立好的套接字线程之间进行通信时比较困难。当使用“生产者-消费者”模型开发网络程序时为每个套接字都分别分配一个 读线程、一个处理数据线程和一个用于同步的事件那么这样无疑加大系统的开销。其最大的缺点是当希望同时处理大量套接字时将无从下手其扩展性很差. 阻塞模式给网络编程带来了一个很大的问题如在调用 send()的同时线程将被阻塞在此期间线程将无法执行任何运算或响应任何的网络请求。这给多客户机、多业务逻辑的网络编程带来了挑战。这时我们可能会选择多线程的方式来解决这个问题。 应对多客户机的网络应用最简单的解决方式是在服务器端使用多线程或多进程。多线程或多进程的目的是让每个连接都拥有独立的线程或进程这样任何一个连接的阻塞都不会影响其他的连接。 具体使用多进程还是多线程并没有一个特定的模式。传统意义上进程的开销要远远大于线程所以如果需要同时为较多的客户机提供服务则不推荐使用多进程如果单个服务执行体需要消耗较多的 CPU 资源譬如需要进行大规模或长时间的数据运算或文件访问则进程较为安全。通常使用 pthread_create () 创建新线程fork() 创建新进程。 多线程/进程服务器同时为多个客户机提供应答服务。模型如下 主线程持续等待客户端的连接请求如果有连接则创建新线程并在新线程中提供为前例同样的问答服务。 上述多线程的服务器模型似乎完美的解决了为多个客户机提供问答服务的要求但其实并不尽然。如果要同时响应成百上千路的连接请求则无论多线程还是多进程都会严重占据系统资源降低系统对外界响应效率而线程与进程本身也更容易进入假死状态。 由此可能会考虑使用“线程池”或“连接池”。“线程池”旨在减少创 建和销毁线程的频率其维持一定合理数量的线程并让空闲的线程重新承担新的执行任务。“连接池”维持连接的缓存池尽量重用已有的连接、减少创建和关闭 连接的频率。这两种技术都可以很好的降低系统开销都被广泛应用很多大型系统如apacheMySQL数据库等。 但是“线程池”和“连接池”技术也只是在一定程度上缓解了频繁调用 IO 接口带来的资源占用。而且所谓“池”始终有其上限当请求大大超过上限时“池”构成的系统对外界的响应并不比没有池的时候效果好多少。所以使用“池” 必须考虑其面临的响应规模并根据响应规模调整“池”的大小。 对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求“线程池”或“连接池”或许可以缓解部分压力但是不能解决所有问题。 非阻塞IO模型 多次系统调用并马上返回在数据拷贝的过程中进程是阻塞的 我们把一个SOCKET接口设置为非阻塞就是告诉内核当所请求的I/O操作无法完成时不要将进程睡眠而是返回一个错误。这样我们的I/O操作函数将不断的测试数据是否已经准备好如果没有准备好继续测试直到数据准备好为止。在这个不断测试的过程中会大量的占用CPU的时间。 把SOCKET设 置为非阻塞模式即通知系统内核在调用Windows Sockets API时不要让线程睡眠而应该让函数立即返回。在返回时该函数返回一个错误代码。图所示一个非阻塞模式套接字多次调用recv()函数的过程。前 三次调用recv()函数时内核数据还没有准备好。因此该函数立即返回WSAEWOULDBLOCK错误代码。第四次调用recv()函数时数据已 经准备好被复制到应用程序的缓冲区中recv()函数返回成功指示应用程序开始处理数据。 当使用socket()函数和WSASocket()函数创建套接字时默认都是阻塞的。在创建套接字之后通过调用ioctlsocket()函数将该套接字设置为非阻塞模式。Linux下的函数是:fcntl(). 套接字设置为非阻塞模式后在调用Windows Sockets API函数时调用函数会立即返回。大多数情况下这些函数调用都会调用“失败”并返回WSAEWOULDBLOCK错误代码。说明请求的操作在调用期 间内没有时间完成。通常应用程序需要重复调用该函数直到获得成功返回代码。 需要说明的是并非所有的Windows Sockets API在非阻塞模式下调用都会返回WSAEWOULDBLOCK错误。例如以非阻塞模式的套接字为参数调用bind()函数时就不会返回该错误代 码。当然在调用WSAStartup()函数时更不会返回该错误代码因为该函数是应用程序第一调用的函数当然不会返回这样的错误代码。 要将套接字设置为非阻塞模式除了使用ioctlsocket()函数之外还可以使用WSAAsyncselect()和WSAEventselect()函数。当调用该函数时套接字会自动地设置为非阻塞方式。 要完成这样的操作有人使用MSG_PEEK标志调用recv()函数查看缓冲区中是否有数据可读。同样这种方法也不好。因为该做法对系统造成的开销是 很大的并且应用程序至少要调用recv()函数两次才能实际地读入数据。较好的做法是使用套接字的“I/O模型”来判断非阻塞套接字是否可读可写。 非阻塞模式套接字与阻塞模式套接字相比不容易使用。使用非阻塞模式套接字需要编写更多的代码以便在每个Windows Sockets API函数调用中对收到的WSAEWOULDBLOCK错误进行处理。因此非阻塞套接字便显得有些难于使用。 但是非阻塞套接字在控制建立的多个连接在数据的收发量不均时间不定时明显具有优势。这种套接字在使用上存在一定难度但只要排除了这些困难它在 功能上还是非常强大的。通常情况下可考虑使用套接字的“I/O模型”它有助于应用程序通过异步方式同时对一个或多个套接字的通信加以管理。 I/O复用模型会用到select、poll、epoll函数这几个函数也会使进程阻塞但是和阻塞I/O所不同的的这两个函数可以同时阻塞多个I /O操作。而且可以同时对多个读操作多个写操作的I/O函数进行检测直到有数据可读或可写时才真正调用I/O操作函数。 两次调用两次返回 首先我们允许套接口进行信号驱动I/O,并安装一个信号处理函数进程继续运行并不阻塞。当数据准备好时进程会收到一个SIGIO信号可以在信号处理函数中调用I/O操作函数处理数据。 简介数据拷贝的时候进程无需阻塞。 当一个异步过程调用发出后调用者不能立刻得到结果。实际处理这个调用的部件在完成后通过状态、通知和回调来通知调用者的输入输出操作 5个I/O模型的比较 3. select、poll、epoll简介 .NET/hguisu/article/details/38638183#t5 epoll模型http://blog.csdn.net/hguisu/article/details/38638183#t12 epoll跟select都能提供多路I/O复用的解决方案。在现在的Linux内核里有都能够支持其中epoll是Linux所特有而select则应该是POSIX所规定一般操作系统均有实现 select select本质上是通过设置或者检查存放fd标志位的数据结构来进行下一步处理。这样所带来的缺点是 1、 单个进程可监视的fd数量被限制即能监听端口的大小有限。 一般来说这个数目和系统内存关系很大具体数目可以cat /proc/sys/fs/file-max察看。32位机默认是1024个。64位机默认是2048. 2、 对socket进行扫描时是线性扫描即采用轮询的方法效率较低 当套接字比较多的时候每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都遍历一遍。这 会浪费很多CPU时间。如果能给套接字注册某个回调函数当他们活跃时自动完成相关操作那就避免了轮询这正是epoll与kqueue做的。 3、需要维护一个用来存放大量fd的数据结构这样会使得用户空间和内核空间在传递该结构时复制开销大 poll poll 本质上和select没有区别它将用户传入的数组拷贝到内核空间然后查询每个fd对应的设备状态如果设备就绪则在设备等待队列中加入一项并继续遍 历如果遍历完所有fd后没有发现就绪设备则挂起当前进程直到设备就绪或者主动超时被唤醒后它又要再次遍历fd。这个过程经历了多次无谓的遍历。 它没有最大连接数的限制原因是它是基于链表来存储的但是同样有一个缺点 1、大量的fd的数组被整体复制于用户态和内核地址空间之 间而不管这样的复制是不是有意 义。 2、poll还有一个特点是“水平触发”如果报告了fd后没有被处理那么下次poll时会再次报告该fd。 epoll: epoll 支持水平触发和边缘触发最大的特点在于边缘触发它只告诉进程哪些fd刚刚变为就需态并且只会通知一次。还有一个特点是epoll使用“事件”的就 绪通知方式通过epoll_ctl注册fd一旦该fd就绪内核就会采用类似callback的回调机制来激活该fdepoll_wait便可以收 到通知 即Epoll最大的优点就在于它只管你“活跃”的连接而跟连接总数无关因此在实际的网络环境中Epoll的效率就会远远高于select和poll。 3、 内存拷贝利用mmap()文件映射内存加速与内核空间的消息传递即epoll使用mmap减少复制开销。select、poll、epoll 区别总结 1、支持一个进程所能打开的最大连接数 select 单个进程所能打开的最大连接数有FD_SETSIZE宏定 义其大小是32个整数的大小在32位的机器上大小就是32*32同理64位机器上FD_SETSIZE为32*64当然我们可以对进行修改 然后重新编译内核但是性能可能会受到影响这需要进一步的测试。 poll poll本质上和select没有区别但是它没有最大连接数的限制原因是它是基于链表来存储的 epoll 虽然连接数有上限但是很大1G内存的机器上可以打开10万左右的连接2G内存的机器可以打开20万左右的连接 2、FD剧增后带来的IO效率问题 select 因为每次调用时都会对连接进行线性遍历所以随着FD的增加会造成遍历速度慢的“线性下降性能问题”。 poll 同上 epoll 因为epoll内核中实现是根据每个fd上的 callback函数来实现的只有活跃的socket才会主动调用callback所以在活跃socket较少的情况下使用epoll没有前面两者 的线性下降的性能问题但是所有socket都很活跃的情况下可能会有性能问题。 3、 消息传递方式 select 内核需要将消息传递到用户空间都需要内核拷贝动作 poll 同上 epoll epoll通过内核和用户空间共享一块内存来实现的。 总结 综上在选择selectpollepoll时要根据具体的使用场合以及这三种方式的自身特点。 1、表面上看epoll的性能最好但是在连接数少并且连接都十分活跃的情况下select和poll的性能可能比epoll好毕竟epoll的通知机制需要很多函数回调。 2、 同步/异步与阻塞/非阻塞经常看到是成对出现 同步阻塞,异步非阻塞,同步非阻塞转载于:https://www.cnblogs.com/Kobe10/p/5972049.html