int setsockopt(
socket s,
int level,
int optname,
const char* optval,
int optlen
);
s(套接字): 指向一个打开的套接口描述字
level:(级别): 指定选项代码的类型。
sol_socket: 基本套接口
ipproto_ip: ipv4套接口
ipproto_ipv6: ipv6套接口
ipproto_tcp: tcp套接口
optname(选项名): 选项名称
optval(选项值): 是一个指向变量的指针 类型:整形,套接口结构, 其他结构类型:linger{}, timeval{ }
optlen(选项长度) :optval 的大小
返回值:标志打开或关闭某个特征的二进制选项
[/code:1:59df4ce128]
========================================================================
sol_socket
------------------------------------------------------------------------
so_broadcast 允许发送广播数据 int
适用於 udp socket。其意义是允许 udp socket 「广播」(broadcast)讯息到网路上。
so_debug 允许调试 int
so_dontroute 不查找路由 int
so_error 获得套接字错误 int
so_keepalive 保持连接 int
检 测对方主机是否崩溃,避免(服务器)永远阻塞于tcp连接的输入。 设置该选项后,如果2小时内在此套接口的任一方向都没有数据交换,tcp就自动给对方 发一个保持存活探测分节(keepalive probe)。这是一个对方必须响应的tcp分节.它会导致以下三种情况: 对方接收一切正常:以期望的 ack响应。2小时后,tcp将发出另一个探测分节。 对方已崩溃且已重新启动:以rst响应。套接口的待处理错误被置为econnreset,套接 口本身则被关闭。 对方无任何响应:源自berkeley的tcp发送另外8个探测分节,相隔75秒一个,试图得到 一个响应。在发出第一个探测分节11分钟15秒后若仍无响应就放弃。套接口的待处理错 误被置为etimeout,套接口本身则被关闭。如icmp错误是“host unreachable (主机不 可达)”,说明对方主机并没有崩溃,但是不可达,这种情况下待处理错误被置为 ehostunreach。
so_dontlinger 若为真,则so_linger选项被禁止。
so_linger 延迟关闭连接 struct linger
上面这两个选项影响close行为
选项 间隔 关闭方式 等待关闭与否
so_dontlinger 不关心 优雅 否
so_linger 零 强制 否
so_linger 非零 优雅 是
若 设置了so_linger(亦即linger结构中的l_onoff域设为非零,参见2.4,4.1.7和4.1.21各节),并设置了零超时间隔,则 closesocket()不被阻塞立即执行,不论是否有排队数据未发送或未被确认。这种关闭方式称为“强制”或“失效”关闭,因为套接口的虚电路立即被 复位,且丢失了未发送的数据。在远端的recv()调用将以wsaeconnreset出错。
若设置了so_linger并确定了非零的超时间 隔,则closesocket()调用阻塞进程,直到所剩数据发送完毕或超时。这种关闭称为“优雅的”关闭。请注意如果套接口置为非阻塞且 so_linger设为非零超时,则closesocket()调用将以wsaewouldblock错误返回。
若在一个流类套接口上设置了 so_dontlinger(也就是说将linger结构的l_onoff域设为零;参见2.4,4.1.7,4.1.21节),则 closesocket()调用立即返回。但是,如果可能,排队的数据将在套接口关闭前发送。请注意,在这种情况下windows套接口实现将在一段不确 定的时间内保留套接口以及其他资源,这对于想用所以套接口的应用程序来说有一定影响。
so_oobinline 带外数据放入正常数据流,在普通数据流中接收带外数据 int
so_rcvbuf 接收缓冲区大小 int
设置接收缓冲区的保留大小
与 so_max_msg_size 或tcp滑动窗口无关,如果一般发送的包很大很频繁,那么使用这个选项
so_sndbuf 发送缓冲区大小 int
设置发送缓冲区的保留大小
与 so_max_msg_size 或tcp滑动窗口无关,如果一般发送的包很大很频繁,那么使用这个选项
每 个套接口都有一个发送缓冲区和一个接收缓冲区。 接收缓冲区被tcp和udp用来将接收到的数据一直保存到由应用进程来读。 tcp:tcp通告另一端的窗口大小。 tcp套接口接收缓冲区不可能溢出,因为对方不允许发出超过所通告窗口大小的数据。 这就是tcp的流量控制,如果对方无视窗口大小而发出了超过宙口大小的数据,则接 收方tcp将丢弃它。 udp:当接收到的数据报装不进套接口接收缓冲区时,此数据报就被丢弃。udp是没有 流量控制的;快的发送者可以很容易地就淹没慢的接收者,导致接收方的udp丢弃数据报。
so_rcvlowat 接收缓冲区下限 int
so_sndlowat 发送缓冲区下限 int
每 个套接口都有一个接收低潮限度和一个发送低潮限度。它们是函数selectt使用的, 接收低潮限度是让select返回“可读”而在套接口接收缓冲区中必须有的数据总量。 ——对于一个tcp或udp套接口,此值缺省为1。发送低潮限度是让select返回“可写” 而在套接口发送缓冲区中必须有的可用空间。对于tcp套接口,此值常缺省为2048。 对于udp使用低潮限度, 由于其发送缓冲区中可用空间的字节数是从不变化的,只要 udp套接口发送缓冲区大小大于套接口的低潮限度,这样的udp套接口就总是可写的。 udp没有发送缓冲区,只有发送缓冲区的大小。
so_rcvtimeo 接收超时 struct timeval
so_sndtimeo 发送超时 struct timeval
so_reuseraddr 允许重用本地地址和端口 int
充许绑定已被使用的地址(或端口号),可以参考bind的man
so_exclusiveaddruse
独占模式使用端口,就是不充许和其它程序使用so_reuseaddr共享的使用某一端口。
在确定多重绑定使用谁的时候,根据一条原则是谁的指定最明确则将包递交给谁,而且没有权限之分,也就是说低级权限的用户是可以重绑定在高级权限如服务启动的端口上的,这是非常重大的一个安全隐患,
如果不想让自己程序被监听,那么使用这个选项
so_type 获得套接字类型 int
so_bsdcompat 与bsd系统兼容 int
==========================================================================
ipproto_ip
--------------------------------------------------------------------------
ip_hdrincl 在数据包中包含ip首部 int
这个选项常用于黑客技术中,隐藏自己的ip地址
ip_optinos ip首部选项 int
ip_tos 服务类型
ip_ttl 生存时间 int
以下ipv4选项用于组播
ipv4 选项 数据类型 描 述
ip_add_membership struct ip_mreq 加入到组播组中
ip_rop_membership struct ip_mreq 从组播组中退出
ip_multicast_if struct ip_mreq 指定提交组播报文的接口
ip_multicast_ttl u_char 指定提交组播报文的ttl
ip_multicast_loop u_char 使组播报文环路有效或无效
在头文件中定义了ip_mreq结构:
[code:1:63724de67f]
struct ip_mreq {
struct in_addr imr_multiaddr; /* ip multicast address of group */
struct in_addr imr_interface; /* local ip address of interface */
};
[/code:1:63724de67f]
若进程要加入到一个组播组中,用soket的setsockopt()函数发送该选项。该选项类型是ip_mreq结构,它的第一个字段imr_multiaddr指定了组播组的地址,第二个字段imr_interface指定了接口的ipv4地址。
ip_drop_membership
该选项用来从某个组播组中退出。数据结构ip_mreq的使用方法与上面相同。
ip_multicast_if
该选项可以修改网络接口,在结构ip_mreq中定义新的接口。
ip_multicast_ttl
设置组播报文的数据包的ttl(生存时间)。默认值是1,表示数据包只能在本地的子网中传送。
ip_multicast_loop
组播组中的成员自己也会收到它向本组发送的报文。这个选项用于选择是否激活这种状态。
无双 回复于:2003-05-08 21:21:52
ippro_tcp
--------------------------------------------------------------------------
tcp_maxseg tcp最大数据段的大小 int
获 取或设置tcp连接的最大分节大小(mss)。返回值是我们的tcp发送给另一端的最大 数据量,它常常就是由另一端用syn分节通告的mss,除非我们的tcp选择使用一个比 对方通告的mss小些的值。如果此值在套接口连接之前取得,则返回值为未从另·—端 收到mss选项的情况下所用的缺省值。小于此返回值的信可能真正用在连接上,因为譬 如说使用时间戳选项的话,它在每个分节上占用12字节的tcp选项容量。我们的tcp将 发送的每个分节的最大数据量也可在连接存活期内改变,但前提是tcp要支持路径mtu 发现功能。如果到对方的路径改变了,此值可上下调整。
tcp_nodelay 不使用nagle算法 int
指定tcp开始发送保持存活探测分节前以秒为单位的连接空闲时间。缺省值至少必须为7200秒,即2小时。此选项仅在so_kepalivee套接口选项打开时才有效。
tcp_nodelay 和 tcp_cork,
这 两个选项都对网络连接的行为具有重要的作用。许多unix系统都实现了tcp_nodelay选项,但是,tcp_cork则是linux系统所独有的而 且相对较新;它首先在内核版本2.4上得以实现。此外,其他unix系统版本也有功能类似的选项,值得注意的是,在某种由bsd派生的系统上的 tcp_nopush选项其实就是tcp_cork的一部分具体实现。
tcp_nodelay和tcp_cork基本上控制了包的 “nagle化”,nagle化在这里的含义是采用nagle算法把较小的包组装为更大的帧。john nagle是nagle算法的发明人,后者就是用他的名字来命名的,他在1984年首次用这种方法来尝试解决福特汽车公司的网络拥塞问题(欲了解详情请参 看ietf rfc 896)。他解决的问题就是所谓的silly window syndrome ,中文称“愚蠢窗口症候群”,具体含义是,因为普遍终端应用程序每产生一次击键操作就会发送一个包,而典型情况下一个包会拥有一个字节的数据载荷以及40 个字节长的包头,于是产生4000%的过载,很轻易地就能令网络发生拥塞,。 nagle化后来成了一种标准并且立即在因特网上得以实现。它现在已经成为缺省配置了,但在我们看来,有些场合下把这一选项关掉也是合乎需要的。
现 在让我们假设某个应用程序发出了一个请求,希望发送小块数据。我们可以选择立即发送数据或者等待产生更多的数据然后再一次发送两种策略。如果我们马上发送 数据,那么交互性的以及客户/服务器型的应用程序将极大地受益。例如,当我们正在发送一个较短的请求并且等候较大的响应时,相关过载与传输的数据总量相比 就会比较低,而且,如果请求立即发出那么响应时间也会快一些。以上操作可以通过设置套接字的tcp_nodelay选项来完成,这样就禁用了nagle算 法。
另外一种情况则需要我们等到数据量达到最大时才通过网络一次发送全部数据,这种数据传输方式有益于大量数据的通信性能,典型的应用就是文件服 务器。应用 nagle算法在这种情况下就会产生问题。但是,如果你正在发送大量数据,你可以设置tcp_cork选项禁用nagle化,其方式正好同 tcp_nodelay相反(tcp_cork 和 tcp_nodelay 是互相排斥的)。下面就让我们仔细分析下其工作原理。
假设应用程序 使用sendfile()函数来转移大量数据。应用协议通常要求发送某些信息来预先解释数据,这些信息其实就是报头内容。典型情况下报头很小,而且套接字 上设置了tcp_nodelay。有报头的包将被立即传输,在某些情况下(取决于内部的包计数器),因为这个包成功地被对方收到后需要请求对方确认。这 样,大量数据的传输就会被推迟而且产生了不必要的网络流量交换。
但是,如果我们在套接字上设置了tcp_cork(可以比喻为在管道上插入 “塞子”)选项,具有报头的包就会填补大量的数据,所有的数据都根据大小自动地通过包传输出去。当数据传输完成时,最好取消tcp_cork 选项设置给连接“拔去塞子”以便任一部分的帧都能发送出去。这同“塞住”网络连接同等重要。
总而言之,如果你肯定能一起发送多个数据集合(例如http响应的头和正文),那么我们建议你设置tcp_cork选项,这样在这些数据之间不存在延迟。能极大地有益于www、ftp以及文件服务器的性能,同时也简化了你的工作。示例代码如下:
intfd, on = 1;
…
/* 此处是创建套接字等操作,出于篇幅的考虑省略*/
…
setsockopt (fd, sol_tcp, tcp_cork, &on, sizeof (on)); /* cork */
write (fd, …);
fprintf (fd, …);
sendfile (fd, …);
write (fd, …);
sendfile (fd, …);
…
on = 0;
setsockopt (fd, sol_tcp, tcp_cork, &on, sizeof (on)); /* 拔去塞子 */
不幸的是,许多常用的程序并没有考虑到以上问题。例如,eric allman编写的sendmail就没有对其套接字设置任何选项。
apache httpd 是因特网上最流行的web服务器,它的所有套接字就都设置了tcp_nodelay选项,而且其性能也深受大多数用户的满意。这是为什么呢?答案就在于实 现的差别之上。由bsd衍生的tcp/ip协议栈(值得注意的是freebsd)在这种状况下的操作就不同。当在tcp_nodelay 模式下提交大量小数据块传输时,大量信息将按照一次write()函数调用发送一块数据的方式发送出去。然而,因为负责请求交付确认的记数器是面向字节而 非面向包(在 linux上)的,所以引入延迟的概率就降低了很多。结果仅仅和全部数据的大小有关系。而 linux 在第一包到达之后就要求确认,freebsd则在进行如此操作之前会等待好几百个包。
在linux系统上,tcp_nodelay的效果同习惯于bsd tcp/ip协议栈的开发者所期望的效果有很大不同,而且在linux上的apache性能表现也会更差些。其他在linux上频繁采用tcp_nodelay的应用程序也有同样的问题。
tcp_defer_accept
我 们首先考虑的第1个选项是tcp_defer_accept(这是linux系统上的叫法,其他一些操作系统上也有同样的选项但使用不同的名字)。为了理 解tcp_defer_accept选项的具体思想,我们有必要大致阐述一下典型的http客户/服务器交互过程。请回想下tcp是如何与传输数据的目标 建立连接的。在网络上,在分离的单元之间传输的信息称为ip包(或ip 数据报)。一个包总有一个携带服务信息的包头,包头用于内部协议的处理,并且它也可以携带数据负载。服务信息的典型例子就是一套所谓的标志,它把包标记代 表tcp/ip协议栈内的特殊含义,例如收到包的成功确认等等。通常,在经过“标记”的包里携带负载是完全可能的,但有时,内部逻辑迫使tcp/ip协议 栈发出只有包头的ip包。这些包经常会引发讨厌的网络延迟而且还增加了系统的负载,结果导致网络性能在整体上降低。
现在服务器创建了一个套接字同 时等待连接。tcp/ip式的连接过程就是所谓“3次握手”。首先,客户程序发送一个设置syn标志而且不带数据负载的tcp包(一个syn包)。服务器 则以发出带syn/ack标志的数据包(一个syn/ack包)作为刚才收到包的确认响应。客户随后发送一个ack包确认收到了第2个包从而结束连接过 程。在收到客户发来的这个syn/ack包之后,服务器会唤醒一个接收进程等待数据到达。当3次握手完成后,客户程序即开始把“有用的”的数据发送给服务 器。通常,一个http请求的量是很小的而且完全可以装到一个包里。但是,在以上的情况下,至少有4个包将用来进行双向传输,这样就增加了可观的延迟时 间。此外,你还得注意到,在“有用的”数据被发送之前,接收方已经开始在等待信息了。
为了减轻这些问题所带来的影响,linux(以及其他的一些 操作系统)在其tcp实现中包括了tcp_defer_accept选项。它们设置在侦听套接字的服务器方,该选项命令内核不等待最后的ack包而且在第 1个真正有数据的包到达才初始化侦听进程。在发送syn/ack包之后,服务器就会等待客户程序发送含数据的ip包。现在,只需要在网络上传送3个包了, 而且还显著降低了连接建立的延迟,对http通信而言尤其如此。
这一选项在好些操作系统上都有相应的对等物。例如,在freebsd上,同样的行为可以用以下代码实现:
/* 为明晰起见,此处略去无关代码 */
struct accept_filter_arg af = { "dataready", "" };
setsockopt(s, sol_socket, so_acceptfilter, &af, sizeof(af));
这 个特征在freebsd上叫做“接受过滤器”,而且具有多种用法。不过,在几乎所有的情况下其效果与tcp_defer_accept是一样的:服务器不 等待最后的ack包而仅仅等待携带数据负载的包。要了解该选项及其对高性能web服务器的重要意义的更多信息请参考apache文档上的有关内容。
就http 客户/服务器交互而言,有可能需要改变客户程序的行为。客户程序为什么要发送这种“无用的”ack包呢?这是因为,tcp协议栈无法知道ack包的状态。 如果采用ftp而非http,那么客户程序直到接收了ftp服务器提示的数据包之后才发送数据。在这种情况下,延迟的ack将导致客户/服务器交互出现延 迟。为了确定ack是否必要,客户程序必须知道应用程序协议及其当前状态。这样,修改客户行为就成为必要了。
对linux客户程序来说,我们还可 以采用另一个选项,它也被叫做tcp_defer_accept。我们知道,套接字分成两种类型,侦听套接字和连接套接字,所以它们也各自具有相应的 tcp选项集合。因此,经常同时采用的这两类选项却具有同样的名字也是完全可能的。在连接套接字上设置该选项以后,客户在收到一个syn/ack包之后就 不再发送ack包,而是等待用户程序的下一个发送数据请求;因此,服务器发送的包也就相应减少了。
tcp_quickack
阻 止因发送无用包而引发延迟的另一个方法是使用tcp_quickack选项。这一选项与 tcp_defer_accept不同,它不但能用作管理连接建立过程而且在正常数据传输过程期间也可以使用。另外,它能在客户/服务器连接的任何一方设 置。如果知道数据不久即将发送,那么推迟ack包的发送就会派上用场,而且最好在那个携带数据的数据包上设置ack 标志以便把网络负载减到最小。当发送方肯定数据将被立即发送(多个包)时,tcp_quickack 选项可以设置为0。对处于“连接”状态下的套接字该选项的缺省值是1,首次使用以后内核将把该选项立即复位为1(这是个一次性的选项)。
在某些情形下,发出ack包则非常有用。ack包将确认数据块的接收,而且,当下一块被处理时不至于引入延迟。这种数据传输模式对交互过程是相当典型的,因为此类情况下用户的输入时刻无法预测。在linux系统上这就是缺省的套接字行为。
在 上述情况下,客户程序在向服务器发送http请求,而预先就知道请求包很短所以在连接建立之后就应该立即发送,这可谓http的典型工作方式。既然没有必 要发送一个纯粹的ack包,所以设置tcp_quickack为0以提高性能是完全可能的。在服务器方,这两种选项都只能在侦听套接字上设置一次。所有的 套接字,也就是被接受呼叫间接创建的套接字则会继承原有套接字的所有选项。
通过tcp_cork、tcp_defer_accept和 tcp_quickack选项的组合,参与每一http交互的数据包数量将被降低到最小的可接受水平(根据tcp协议的要求和安全方面的考虑)。结果不仅 是获得更快的数据传输和请求处理速度而且还使客户/服务器双向延迟实现了最小化。
二、使用例子说明
1.closesocket(一般不会立即关闭而经历time_wait的过程)后想继续重用该socket:
bool breuseaddr=true;
setsockopt(s,sol_socket ,so_reuseaddr,(const char*)&breuseaddr,sizeof(bool));
2. 如果要已经处于连接状态的soket在调用closesocket后强制关闭,不经历
time_wait的过程:
bool bdontlinger = false;
setsockopt(s,sol_socket,so_dontlinger,(const char*)&bdontlinger,sizeof(bool));
3.在send(),recv()过程中有时由于网络状况等原因,发收不能预期进行,而设置收发时限:
int nnettimeout=1000;//1秒
//发送时限
setsockopt(socket,sol_s0cket,so_sndtimeo,(char *)&nnettimeout,sizeof(int));
//接收时限
setsockopt(socket,sol_s0cket,so_rcvtimeo,(char *)&nnettimeout,sizeof(int));
4.在send()的时候,返回的是实际发送出去的字节(同步)或发送到socket缓冲区的字节
(异步);系统默认的状态发送和接收一次为8688字节(约为8.5k);在实际的过程中发送数据
和接收数据量比较大,可以设置socket缓冲区,而避免了send(),recv()不断的循环收发:
// 接收缓冲区
int nrecvbuf=32*1024;//设置为32k
setsockopt(s,sol_socket,so_rcvbuf,(const char*)&nrecvbuf,sizeof(int));
//发送缓冲区
int nsendbuf=32*1024;//设置为32k
setsockopt(s,sol_socket,so_sndbuf,(const char*)&nsendbuf,sizeof(int));
5. 如果在发送数据的时,希望不经历由系统缓冲区到socket缓冲区的拷贝而影响
程序的性能:
int nzero=0;
setsockopt(socket,sol_s0cket,so_sndbuf,(char *)&nzero,sizeof(nzero));
6.同上在recv()完成上述功能(默认情况是将socket缓冲区的内容拷贝到系统缓冲区):
int nzero=0;
setsockopt(socket,sol_s0cket,so_rcvbuf,(char *)&nzero,sizeof(int));
7.一般在发送udp数据报的时候,希望该socket发送的数据具有广播特性:
bool bbroadcast=true;
setsockopt(s,sol_socket,so_broadcast,(const char*)&bbroadcast,sizeof(bool));
8.在client连接服务器过程中,如果处于非阻塞模式下的socket在connect()的过程中可
以设置connect()延时,直到accpet()被呼叫(本函数设置只有在非阻塞的过程中有显著的
作用,在阻塞的函数调用中作用不大)
bool bconditionalaccept=true;
setsockopt(s,sol_socket,so_conditional_accept,(const char*)&bconditionalaccept,sizeof(bool));
9.如果在发送数据的过程中(send()没有完成,还有数据没发送)而调用了closesocket(),以前我们
一般采取的措施是"从容关闭"shutdown(s,sd_both),但是数据是肯定丢失了,如何设置让程序满足具体
应用的要求(即让没发完的数据发送出去后在关闭socket)?
struct linger {
u_short l_onoff;
u_short l_linger;
};
linger m_slinger;
m_slinger.l_onoff=1;//(在closesocket()调用,但是还有数据没发送完毕的时候容许逗留)
// 如果m_slinger.l_onoff=0;则功能和2.)作用相同;
m_slinger.l_linger=5;//(容许逗留的时间为5秒)
setsockopt(s,sol_socket,so_linger,(const char*)&m_slinger,sizeof(linger)); setsockopt()用法 2007/12/05 19:01
一下来源于互联网: 1.closesocket(一般不会立即关闭而经历time_wait的过程)后想继续重用该socket: 2. 如果要已经处于连接状态的soket在调用closesocket后强制关闭,不经历 3.在send(),recv()过程中有时由于网络状况等原因,发收不能预期进行,而设置收发时限: 4.在send()的时候,返回的是实际发送出去的字节(同步)或发送到socket缓冲区的字节 5. 如果在发送数据的时,希望不经历由系统缓冲区到socket缓冲区的拷贝而影响 6.同上在recv()完成上述功能(默认情况是将socket缓冲区的内容拷贝到系统缓冲区): 7.一般在发送udp数据报的时候,希望该socket发送的数据具有广播特性: 8.在client连接服务器过程中,如果处于非阻塞模式下的socket在connect()的过程中可 9.如果在发送数据的过程中(send()没有完成,还有数据没发送)而调用了closesocket(),以前我们 |