计算机网络(二)Linux网络编程_网络编程

资源共享

Linux高性能服务器编程PDF

在这里插入图片描述
链接https://pan.baidu.com/s/1V5wnvxTrsnRjXqK6wi_1cw?pwd=3nby
提取码3nby

网络端口测试工具

在这里插入图片描述

链接https://pan.baidu.com/s/1TmDcJlo96ce45-oekg7sqg?pwd=ouyn
提取码ouyn

POSIX

概念

POSIX表示可移植操作系统接口Portable Operating System Interface of UNIX缩写为 POSIX POSIX标准定义了Unix操作系统应该为应用程序提供的接口标准Linux也遵循了这一接口标准Windows也兼容了POSIX标准。

POSIX网络相关API

根据C/S模型主要接口函数如下
服务端包括Socket套接字、Bind绑定、Listen监听、Accept接待、Recv接收、Send发送、Close关闭。
客户端包括Socket套接字、Connect连接、Recv接收、Send发送、Close关闭。
在这里插入图片描述

socket()

Socket既是数据报的载体又包含有数据报的控制模板

int socket(int domain, int type, int protocol);

调用socket()会创建一个套接字socket对象。套接字由两部分组成文件描述符fd和TCP控制模块(TCP Control Blocktcb。

socket函数对应于普通文件的打开操作。普通文件的打开操作返回一个文件描述字而socket()用于创建一个socket描述符socket descriptor它唯一标识一个socket。这个socket描述字跟文件描述字一样后续的操作都有用到它把它作为参数通过它来进行一些读写操作。

创建socket的时候可以指定不同的参数创建不同的socket描述符socket函数的三个参数分别为

  • domain即协议域又称为协议族family。常用的协议族有AF_INET、AF_INET6、AF_LOCAL或称AF_UNIXUnix域socket、AF_ROUTE等等。协议族决定了socket的地址类型在通信中必须采用对应的地址如AF_INET决定了要用ipv4地址32位的与端口号16位的的组合、AF_UNIX决定了要用一个绝对路径名作为地址。
  • type指定socket类型。常用的socket类型有SOCK_STREAM、SOCK_DGRAM、SOCK_RAW、SOCK_PACKET、SOCK_SEQPACKET等等socket的类型有哪些。
  • protocol故名思意就是指定协议。常用的协议有IPPROTO_TCP、IPPTOTO_UDP、IPPROTO_SCTP、IPPROTO_TIPC等它们分别对应TCP传输协议、UDP传输协议、STCP传输协议、TIPC传输协议这个协议我将会单独开篇讨论。

注意并不是上面的type和protocol可以随意组合的如SOCK_STREAM不可以跟IPPROTO_UDP组合。当protocol为0时会自动选择type类型对应的默认协议。

当我们调用socket创建一个socket时返回的socket描述字它存在于协议族address familyAF_XXX空间中但没有一个具体的地址。如果想要给它赋值一个地址就必须调用bind()函数否则就当调用connect()、listen()时系统会自动随机分配一个端口。

bind()

int bind(int sockfd, const struct sockaddr *addr, socklen_t addrlen);

bind()函数把一个地址族中的特定地址赋给socket。通常服务器在启动的时候都会绑定一个众所周知的地址如ip地址+端口号用于提供服务客户就可以通过它来接连服务器而客户端就不用指定有系统自动分配一个端口号和自身的ip地址组合。这就是为什么通常服务器端在listen之前会调用bind()而客户端就不会调用而是在connect()时由系统随机生成一个。

bind()函数的三个参数分别为

  • sockfd即socket描述字它是通过socket()函数创建了唯一标识一个socket。bind()函数就是将给这个描述字绑定一个名字。
  • addr一个const struct sockaddr *指针指向要绑定给sockfd的协议地址。
  • addrlen对应的是地址的长度。

参数中的地址结构根据地址创建socket时的地址协议族的不同而不同如ipv4对应的是

struct sockaddr_in {
    sa_family_t    sin_family; /* address family: AF_INET */
    in_port_t      sin_port;   /* port in network byte order */
    struct in_addr sin_addr;   /* internet address */
};

/* Internet address. */
struct in_addr {
    uint32_t       s_addr;     /* address in network byte order */
};

ipv6对应的是

struct sockaddr_in6 { 
    sa_family_t     sin6_family;   /* AF_INET6 */ 
    in_port_t       sin6_port;     /* port number */ 
    uint32_t        sin6_flowinfo; /* IPv6 flow information */ 
    struct in6_addr sin6_addr;     /* IPv6 address */ 
    uint32_t        sin6_scope_id; /* Scope ID (new in 2.4) */ 
};

struct in6_addr { 
    unsigned char   s6_addr[16];   /* IPv6 address */ 
};

Unix域对应的是

#define UNIX_PATH_MAX    108

struct sockaddr_un { 
    sa_family_t sun_family;               /* AF_UNIX */ 
    char        sun_path[UNIX_PATH_MAX];  /* pathname */ 
};

网络字节序与主机字节序大小端设备

  1. 主机字节序就是我们平常说的大端和小端模式不同的CPU有不同的字节序类型这些字节序是指整数在内存中保存的顺序这个叫做主机序。小端/大端的区别是指低位数据存储在内存低位还是高位的区别。其中小端机器指数据低位存储在内存地址低位高位数据则在内存地址高位大端机器正好相反。
    当前绝大部分机器都是小端机器就是比较符合人们逻辑思维的数据存储方式数据从左至右排列数据低位在内存地址低位(右边)数据高位在内存地址的高位(左边)

  2. 网络字节序4个字节的32 bit值以下面的次序传输首先是0~7bit其次8~15bit然后16~23bit最后是24~31bit。这种传输次序称作大端字节序。由于TCP/IP首部中所有的二进制整数在网络中传输时都要求以这种次序因此它又称作网络字节序。字节序顾名思义字节的顺序就是大于一个字节类型的数据在内存中的存放顺序一个字节的数据没有顺序的问题了。

所以 在将一个地址绑定到socket的时候请先将主机字节序转换成为网络字节序而不要假定主机字节序跟网络字节序一样使用的是大端。由于 这个问题曾引发过血案公司项目代码中由于存在这个问题导致了很多莫名其妙的问题所以请谨记对主机字节序不要做任何假定务必将其转化为网络字节序再 赋给socket。

listen/connect/accept

listend()

服务端调用listen()后开始监听网络上发送给socket的连接请求。

listen(fd,size)fd是socket的文件描述符size在Linux是指全连接队列的长度即一次最多能保存size个连接请求。

connect()

客户端调用connect()函数向指定服务端发起连接请求。

accept()

函数只做两件事将连接请求从全连接队列中取出给该连接分配一个fd并返回。

int accept(int sockfd, struct sockaddr *addr, socklen_t *addrlen);

TCP服务器端依次调用socket()、bind()、listen()之后就会监听指定的socket地址了。
TCP客户端依次调用socket()、connect()之后就想TCP服务器发送了一个连接请求。TCP服务器监听到这个请求之后就会调用accept()函数取接收请求这样连接就建立好了。之后就可以开始网络I/O操作了即类同于普通文件的读写I/O操作。

accept函数的第一个参数为服务器的socket描述字第二个参数为指向struct sockaddr *的指针用于返回客户端的协议地址第三个参数为协议地址的长度。如果accpet成功那么其返回值是由内核自动生成的一个全新的描述字代表与返回客户的TCP连接。

连接过程三次握手

listen/connect/accept三个函数和三次握手有关这里放到一起进行描述。当客户端调用connet函数时表示开始进入三次握手当服务端收到syn包后listen函数会在内核协议栈为新的客户端创建一个TCB块同时将其加入到半连接队列。客户端收到对方的ACK和Syn包后会回复一个ACK这时候客户端就会认为整个连接已经建立服务端收到ACK后会将半连接队列的TCB数据移动到全连接队列当服务端调用accept会在全连接队列有数据时被触发同时返回客户端的文件句柄和对方的ip端口这时候TCB一个完整的五元组被构建好服务端和客户端连接成功。具体如下图所示
在这里插入图片描述

注意点

  1. TCP连接为啥是三次握手
    一个完整的TCP连接需要双方都得到确认客户端发送请求和收到确认需要两次服务端发送请求和收到确认需要两次当中服务回复确认和发送请求合并为一次总共需要3次才能保证双向通道是通的。
    2.百万连接是如何做到的
    一个服务器的端口数是655352的16次方为何能做到一百万的连接主要是因为一条连接是由五元组所组成所以一个服务器的连接数是五个成员数的乘积。例如客户端ip100客户端port100服务端ip1服务端port100协议tcp。总的连接数可以达到10000000连接数。
  2. DOS攻击怎么解决
    DOS攻击就是利用三次握手的原理模拟客户端只向服务器发送syn包然后耗尽被攻击对象的资源。比较多的做法是利用防火墙做一些过滤规则。

send/recv

send和recv在连接生命周期中占用的时常最长主要负责数据的收发。send函数负责将数据拷贝到内核内核协议栈主要是利用TCB中的发送缓冲区进行数据缓存然后根据内核自己的策略决定何时将数据发送。接收端数据也是先到达TCB的接收缓冲区然后才是通过recv拷贝到用户空间。

  • recv接收数据函数此函数将数据从内核态的接收缓冲区拷贝到用户空间。
  • send发送函数此函数将数据从用户态拷贝到内核态的发送缓冲区具体发送由协议控制。

经过上边的操作服务器与客户已经建立好连接了。可以调用网络I/O进行读写操作了即实现了网络中不同进程之间的通信网络I/O操作有下面几组

  • read()/write()
  • recv()/send()
  • readv()/writev()
  • recvmsg()/sendmsg()
  • recvfrom()/sendto()

我推荐使用recvmsg()/sendmsg()函数这两个函数是最通用的I/O函数实际上可以把上面的其它函数都替换成这两个函数。它们的声明如下

#include <unistd.h>

ssize_t read(int fd, void *buf, size_t count);
ssize_t write(int fd, const void *buf, size_t count);

#include <sys/types.h>
#include <sys/socket.h>

ssize_t send(int sockfd, const void *buf, size_t len, int flags);
ssize_t recv(int sockfd, void *buf, size_t len, int flags);

ssize_t sendto(int sockfd, const void *buf, size_t len, int flags,
               const struct sockaddr *dest_addr, socklen_t addrlen);
ssize_t recvfrom(int sockfd, void *buf, size_t len, int flags,
                 struct sockaddr *src_addr, socklen_t *addrlen);

ssize_t sendmsg(int sockfd, const struct msghdr *msg, int flags);
ssize_t recvmsg(int sockfd, struct msghdr *msg, int flags);

注意事项

  1. 接收数据的黏包问题如何解决
    一种是利用包头上添加一个数据包长度的字段用于数据的划分另一种是在包的尾部添加分隔符用于数据的划分
  2. 如何保证接收数据的顺序到达
    顺序到达是由于TCP的延迟ACK的机制来保证的TCP接收到数据并不是立即回复而是经过一个延迟时间回复接收到连续包的最大序列号加1。如果丢包之后的包都需要重传。在弱网情况下这里就会有实时性问题和带宽占用的问题
  3. UDP优势
    UDP在实时性要求高的场景和弱网情况下较TCP更具有优势。目前竞技类游戏实时性要求高的行业音视频通话及小数据量交互等场景下UDP使用得比较多。

close

在服务器与客户端建立连接之后会进行一些读写操作完成了读写操作就要关闭相应的socket描述字好比操作完打开的文件要调用fclose关闭打开的文件。

close一个TCP socket的缺省行为时把该socket标记为以关闭然后立即返回到调用进程。该描述字不能再由调用进程使用也就是说不能再作为read或write的第一个参数。

注意close操作只是使相应socket描述字的引用计数-1只有当引用计数为0的时候才会触发TCP客户端向服务器发送终止连接请求。

关闭过程四次挥手

close函数是最简单的一个函数但是断开连接也是状态机也是最为复杂的。close过程涉及到四次挥手的全过程。首先是客户端调用close内核开始进入四次挥手阶段首先是发送fin包自己先进入fin_wait_1状态然后对方回复ack进入close_wait状态这时主动方进入fin_wait_2阶段等待对方发送fin信息被动方发送fin后自己进入last_ack状态主动方发送ack进入time_wait状态。整个过程比较复杂。
在这里插入图片描述
其实用下面这个图更加清晰客户端发送fin包后服务端收到回复ack此时服务端通知进程关闭TCP应用进程等待服务端TCP应用进程关闭后服务端发送fin包客户端收到后回复ack当服务端收到ack后close完成客户端等待2MSL后完成close。等待2MSL时长后再关闭是为了防止客户端的最后确认ack报文发生丢失导致服务端一直处于最后确认无法关闭。
在这里插入图片描述
在这里插入图片描述

注意事项

  1. Fin_wait_1作用
    等待对方回复超时自动重发fin。
  2. Fin_wait_2作用
    等待对方业务逻辑处理后发送fin包。这里有可能出现死等待的情况服务器如果出现大量的Fin_wait_2可能需要考虑是不是没有close或者close之前做了耗时操作。
  3. time_wait 作用
    防止最后一个ACK没有顺利到达对方超时重新发送ack。time_wait时常一般是120s可以修改。
  4. 服务器掉线重启出现端口被占用怎么办
    其实主要是由于还处于time_wait状态端口并没有真正释放。这时候可以设置SO_REUSEADDR属性保证掉线能马上重连。

网络IO管理

五种IO网络模型

阻塞IO

Linux中默认情况下所有的socket都是阻塞型的所谓阻塞型接口是指系统调用一般是IO 接口不返回调用结果并让当前线程一直阻塞只有当该系统调用获得结果或者超时出错时才返回。
在这里插入图片描述
实际上除非特别指定几乎所有的IO 接口 ( 包括socket 接口 ) 都是阻塞型的。这给网络编程带来了一个很大的问题如在调用send()的同时线程将被阻塞在此期间线程将无法执行任何运算或响应任何的网络请求。

一个简单的改进方案是在服务器端使用多线程或多进程。多线程或多进程的目的是让每个连接都拥有独立的线程或进程这样任何一个连接的阻塞都不会影响其他的连接。
在这里插入图片描述
在上述的线程 / 时间图例中主线程持续等待客户端的连接请求如果有连接则创建新线程并在新线程中提供为前例同样的问答服务。很多初学者可能不明白为何一个socket 可以accept 多次。实际上socket 的设计者可能特意为多客户机的情况留下了伏笔让accept()能够返回一个新的socket。下面是
accept 接口的原型

int accept(int s, struct sockaddr *addr, socklen_t* addrlen);

输入参数s 是从socket()bind()和listen()中沿用下来的socket 句柄值。执行完bind()和listen()后操作系统已经开始在指定的端口处监听所有的连接请求如果有请求则将该连接请求加入请求队列。调用accept()接口正是从 socket s 的请求队列抽取第一个连接信息创建一个与s 同类的新的socket 返回句柄。新的socket 句柄即是后续read()和recv()的输入参数。如果请求队列当前没有请求则accept() 将进入阻塞状态直到有请求进入队列。

上述多线程的服务器模型似乎完美的解决了为多个客户机提供问答服务的要求但其实并不尽然。如果要同时响应成百上千路的连接请求则无论多线程还是多进程都会严重占据系统资源降低系统对外界响应效率而线程与进程本身也更容易进入假死状态。

非阻塞 IO基于循环recv

Linux下还可以设置socket为非阻塞型。在非阻塞式 IO 中用户进程其实是需要不断的主动询问 kernel数据准备好了没有。
在非阻塞状态下 recv() 接口在 被调用后立即返回返回值代表了不同的含义。如本例中

  • recv()返回值大于 0表示接受数据完毕返回值即是接受到的字节数
  • recv()返回 0表示连接已经正常断开
  • recv() 返回 -1且 errno 等于 EAGAINEAGAIN表示 recv 操作还没执行完成
  • recv()返回 -1且 errno 不等于 EAGAINEAGAIN表示 recv 操作遇到系统错误 errno

非阻塞的接口相比于阻塞型接口的显著差异在于在被调用之后立即返回。使用如下的函数可以将某句柄 fd设为非阻塞状态。
fcntl (fd, F_SETFL, O_NONBLOCK);
在这里插入图片描述
服务器线程可以通过循环调用recv()接口可以在单个线程内实现对所有连接的数据接收工作。但是上述模型绝不被推荐。因为循环调用recv()将大幅度推高CPU占用率

此外在这个方案中recv()更多的是起到检测“操作是否完成”的作用实际操作系统提供了更为高效的检测“操作是否完成“作用的接口例如select()多路复用模式可以一次检测多个连接是否活跃。

多路复用/事件驱动IO

基本原理就是select/epoll 这个function会不断的轮询所负责的所有socket当某个socket 有数据到达了就通知用户进程。
在多路复用模型中对于每一个socket 一般都设置 成为 non blocking 但是整个用户的 process 其实是一直被 block 的。只不过 process 是被 select 这个函数 block 而不是被 socket IO 给 block 。因此 select() 与非阻塞 IO 类似。

大部分 Unix/Linux 都支持 select 函数该函数用于轮询探测多个文件句柄的状态变化。
select 接口的原型

FD_ZERO( int fd, fd_set* fds)
FD_SET( int fd, fd_set* fds)
FD_ ISSET( int fd, fd_set* fds)
FD_CLR( int fd, fd_set* fds)
int select (int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout)

其中fd_set类型可理解为按bit位标记句柄的队列例如在某fd_set中标记一个值为16的句柄则该fd_set的第16个bit位被标记为1。具体的置位、验证可使用 FD_SET 、 FD_ISSET 等宏实现。在 select() 函数中 readfds 、 writefds 和exceptfds 同时作为输入参数和输出参数。如果输入的readfds标记了16号句柄则select()将检测16号句柄是否可读。号句柄是否可读。在 select() 返回后可以通过检查 readfds 有否标记 16 号句柄来判断该 可读事件是否发生。另外用户可以设置 timeout 时间。
在这里插入图片描述
相比其他模型使用 select() 的事件驱动模型只用单线程进程执行占用资源少不消耗太多 CPU 同时能够为多客户端提供服务。
但这个模型依旧有着很多问题。首先select() 接口并不是实现 事件驱动 的最好选择。因为当需要探测的句柄值较大时 select() 接口本身需要消耗大 量时间去轮询各个句柄。很多操作系统提供了更为高效的接口如 linux 提供了 epoll BSD 提供了 kqueue Solaris提供了 /dev/poll 。如果需要实现更高效的服务器程序类似 epoll 这样的接口更被推荐。遗憾的是不同的操作系统特供的 epoll 接口有很大差异所以使用类似于 epoll 的接口实现具有较好跨平台能力的服务器会比较困难。

幸运的是有很多高效的事件驱动库可以屏蔽上述的困难常见的事件驱动库有libevent 库还有作为 libevent 替代者的 libev 库。

异步IOAsynchronous I/O

异步 IO 是真正非阻塞的它不会对请求进程产生任何的阻塞因此对高并发的网络服务器实现至关重要。用户进程发起read 操作之后它会立刻返回用户进程就可以开始去做其它的事。kernel 会等待数据准备完成然后将数据拷贝到用 户内存当这一切都完成之后 kernel 会给用户进程发送一个 signal 告诉它 read 操作完成了。

信号驱动IOsignal driven I/O SIGIO

socket还可进行信号驱动 I/O, 安装一个信号处理函数进程继续运行并不阻塞。当数据准备好时进程会收到一个 SIGIO 信号可以在信号处理函数中调用 I/O 操作函数处理数据。当数据报准备好读取时内核就为该进程产生一个 SIGIO 信号。我们随后既可以在信号处理函数中调用 read 读取数据报并通知主循环数据已准备好待处理也可以立即通知主循环让它来读取数据报。无论如何处理 SIGIO 信号这种模型的优势在于等待数据报到达第一阶段期间进程可以继续执行不被阻塞当有活跃套接字时由注册的 handler处理。

服务器模型Reactor与Proactor

Reactor模型

首先来回想一下普通函数调用的机制程序调用某函数函数执行程序等待函数将结果和控制权返回给程序程序继续处理。
Reactor 释义为“反应堆”是一种事件驱动机制。和普通函数调用的不同之处在于应用程序不是主动的调用某个 API 完成处理而是恰恰相反 Reactor 逆置了事件处理流程应用程序需要提供相应的接口并注册到 Reactor 上如果相应的事件发生 Reactor 将主动调用应用程序注册的接口这些接口又称为 回调函数 。

Reactor模式是处理并发 I/O 比较常见的一种模式用于同步 I/O 中心思想是将所有要处理的 I/O 事件注册到一个中心 I/O 多路复用器上同时主线程 进程阻塞在多路复用器上一旦有 I/O 事件到来或是准备就绪 文件描述符或 socket 可读、写 )多路复用器返回并将事先注册的相应 I/O 事件分发到对应的处理器中。
Reactor 模型有三个重要的组件

  • 多路复用器由操作系统提供在linux 上一般是select, poll, epoll 等系统调用。
  • 事件分发器将多路复用器中返回的就绪事件分到对应的处理函数中。
  • 事件处理器负责处理特定事件的处理函数。
    在这里插入图片描述
    具体流程如下
  1. 注册读就绪事件和相应的事件处理器
  2. 事件分离器等待事件
  3. 事件到来激活分离器分离器调用事件对应的处理器
  4. 事件处理器完成实际的读操作处理读到的数据注册新的事件然后返还控制权。
    Reactor 模式是编写高性能网络服务器的必备技术之一它具有如下的优点
  • 响应快不必为单个同步时间所阻塞虽然Reactor 本身依然是同步的
  • 编程相对简单可以最大程度的避免复杂的多线程及同步问题并且避免了多线程/进程的切换开销
  • 可扩展性可以方便的通过增加Reactor 实例个数来充分利用CPU 资源
  • 可复用性reactor 框架本身与具体事件处理逻辑无关具有很高的复用性

Proactor模型

proactor模型是一种用来在支持高效的同步机制的系统中构建应用软件的模型。Proactor模型在异步事件完成的时候能够支持多事件处理程序的复用和分发。Proactor模型通过整合完成事件的服用以及调度对应的事件处理程序简化了异步应用程序的开发。
在这里插入图片描述

在这里插入图片描述
具体流程如下

  1. 处理器发起异步操作并关注I/O 完成事件
  2. 事件分离器等待操作完成事件
  3. 分离器等待过程中内核并行执行实际的I/O 操作并将结果数据存入用户自定义缓冲区最后通知事件分离器读操作完成
  4. I/O 完成后通过事件分离器呼唤处理器
  5. 事件处理器处理用户自定义缓冲区中的数据

Proactor 最大的特点是使用异步I/O。所有的I/O 操作都交由系统提供的异步I/O 接口去执行。工作线程仅仅负责业务逻辑。Proactor增加了编程的复杂度但给工作线程带来了更高的效率。Proactor可以在系统态将读写优化利用I/O并行能力提供一个高性能单线程模型。

TCPserver实战

环境搭建

实战是基于Source InsightWindows开发主机上安装与Samba共享在windows中开发Linux工程通过ssh远程访问执行编译生成与运行采用资源共享中的网络调试助手作为客户端尝试与服务端建立TCP连接。
环境搭建见我另一篇博客

简单阻塞服务器实现

  1. 服务端代码TCPServer.c
#include<stdio.h>
#include<sys/socket.h>
#include<sys/types.h>
#include<netinet/in.h>
// socket --> socket也是一个进程
// bash --> execve("./server", "") bash 进程执行了函数

int main(){

	// 1、用socket()创建一个socket
	//socket返回的int是连接的标记符随着socket连接数从3开始自增因为012分别代表了标准输入、输出、错误
	int listenfd = socket(AF_INET, SOCK_STREAM, 0); // 参数是历史沿用写法
	if (listenfd == -1) return -1; // 创建失败直接返回,POSIX API特点返回0是成功返回负值是失败

	// 2、创建绑定服务器地址
	struct sockaddr_in servaddr; // 准备绑定一个服务器地址
	// POSIX API的又一特点一般取单词前4个字母作为名字缩写
	servaddr.sin_family = AF_INET; // 指定TCP/IP协议簇这里是IPV4
	// htonl: host to net long网络地址使用long类型存储
	// 将主机字节序 转为网络字节序INADDR_ANY是本机回环地址 : 0.0.0.0
	servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
	// htonl: host to net short端口号使用short类型存储
	// 将主机字节序 转为网络字节序指定端口为8888 
	servaddr.sin_port = htons(8888);

	//3、用bind()绑定创建的地址
	if( -1 == bind(listenfd, (struct sockaddr*)&servaddr, sizeof(servaddr))){
		// 如果绑定失败直接返回
		return -2;
	}
	//4、listen()开启监听设置全连接队列大小为10
	listen(listenfd, 10);

	//5、准备一个客户端结构体client
	struct sockaddr_in client;
	socklen_t len = sizeof(client);

	//6、用accept()接待客户端连接
	int clientfd = accept(listenfd, (struct sockaddr*)&client, &len);

	printf("hello TCP socket world!\n");
	printf("listenfd: %d\n", listenfd);
	return 0;
}
  1. 在服务端编译TCPServer.c生成server可执行文件随后执行可见服务器陷入拥塞等待
sudo gcc-o server TCPServer.c # 编译
./server #执行

在这里插入图片描述
3. 根据服务端ip地址和TCPServer.c中指定的端口号使用网络调试端口连接
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
点击连接后可以看到终端不再拥塞等待输出了程序运行结果表明连接已经建立。
在这里插入图片描述
这个过程实际上拥塞在accept()函数等待连接接入。当连接接入满足时执行后边的打印。
在这里插入图片描述
将两个printf注释掉替换为下面的接收服务端消息的代码

	// 初始化一个字符串数组用于接收客户端发送的数据
	unsigned char buffer[BUFFER_LENGTH] = {0};
	// recv()接收并打印client发送的消息
	int ret = recv(clientfd, buffer, BUFFER_LENGTH, 0);
	printf("message from client: %s \n", buffer);
	// 将消息再发回去给客户端
	send(clientfd, buffer, ret, 0);
		
	// printf("hello TCP socket world!\n");
	// printf("listenfd: %d\n", listenfd);

编译运行后发现阻塞等待使用网络助手连接后在发送区发送“hello my tcp server”。
服务端收到客户端消息客户端也能收到回传的消息如下
在这里插入图片描述
在这里插入图片描述

设置非阻塞

默认的socket是阻塞类型通过下边这段代码可以修改为非阻塞类型
主要是通过#include<fcntl.h>后使用fcntl函数修改listenfd的属性这段放置在listen()的前后都可。

	// fcntl:file control  F_GETFD参数获取文件属性
	int flag = fcntl(listenfd, F_GETFD, 0);
	// 让属性值或上非阻塞即设置为非阻塞
	flag |= O_NONBLOCK;
	// 将修改后的flag通过F_SETFL参数set
	fcntl(listenfd, F_SETFL, flag);

设置完毕后编译运行发现不再bash命令不再等待直接运行出结果。
在这里插入图片描述
但是这样不拥塞程序直接结束了为了避免程序退出可以循环调用recv()

I/O多路复用

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: linux