doc1:
所有的tcp/ip参数都位于/proc/sys/net目录下(请注意,对/proc/sys/net目录下内容的修改都是临时的,任何修改在系统重启后都会丢失),例如下面这些重要的参数:
参数(路径 文件)
|
描述
|
默认值
|
优化值
|
/proc/sys/net/core/rmem_default
|
默认的tcp数据接收窗口大小(字节)。
|
229376
|
256960
|
/proc/sys/net/core/rmem_max
|
最大的tcp数据接收窗口(字节)。
|
131071
|
513920
|
/proc/sys/net/core/wmem_default
|
默认的tcp数据发送窗口大小(字节)。
|
229376
|
256960
|
/proc/sys/net/core/wmem_max
|
最大的tcp数据发送窗口(字节)。
|
131071
|
513920
|
/proc/sys/net/core/netdev_max_backlog
|
在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。
|
1000
|
2000
|
/proc/sys/net/core/somaxconn
|
定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数。
|
128
|
2048
|
/proc/sys/net/core/optmem_max
|
表示每个套接字所允许的最大缓冲区的大小。
|
20480
|
81920
|
/proc/sys/net/ipv4/tcp_mem
|
确定tcp栈应该如何反映内存使用,每个值的单位都是内存页(通常是4kb)。第一个值是内存使用的下限;第二个值是内存压力模式开始对缓冲区使用应用压力的上限;第三个值是内存使用的上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的bdp可以增大这些值(注意,其单位是内存页而不是字节)。
|
94011 125351 188022
|
131072 262144 524288
|
/proc/sys/net/ipv4/tcp_rmem
|
为自动调优定义socket使用的内存。第一个值是为socket接收缓冲区分配的最少字节数;第二个值是默认值(该值会被rmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是接收缓冲区空间的最大字节数(该值会被rmem_max覆盖)。
|
4096 87380 4011232
|
8760 256960 4088000
|
/proc/sys/net/ipv4/tcp_wmem
|
为自动调优定义socket使用的内存。第一个值是为socket发送缓冲区分配的最少字节数;第二个值是默认值(该值会被wmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是发送缓冲区空间的最大字节数(该值会被wmem_max覆盖)。
|
4096 16384 4011232
|
8760 256960 4088000
|
/proc/sys/net/ipv4/tcp_keepalive_time
|
tcp发送keepalive探测消息的间隔时间(秒),用于确认tcp连接是否有效。
|
7200
|
1800
|
/proc/sys/net/ipv4/tcp_keepalive_intvl
|
探测消息未获得响应时,重发该消息的间隔时间(秒)。
|
75
|
30
|
/proc/sys/net/ipv4/tcp_keepalive_probes
|
在认定tcp连接失效之前,最多发送多少个keepalive探测消息。
|
9
|
3
|
/proc/sys/net/ipv4/tcp_sack
|
启用有选择的应答(1表示启用),通过有选择地应答乱序接收到的报文来提高性能,让发送者只发送丢失的报文段,(对于广域网通信来说)这个选项应该启用,但是会增加对cpu的占用。
|
1
|
1
|
/proc/sys/net/ipv4/tcp_fack
|
启用转发应答,可以进行有选择应答(sack)从而减少拥塞情况的发生,这个选项也应该启用。
|
1
|
1
|
/proc/sys/net/ipv4/tcp_timestamps
|
tcp时间戳(会在tcp包头增加12个字节),以一种比重发超时更精确的方法(参考rfc 1323)来启用对rtt 的计算,为实现更好的性能应该启用这个选项。
|
1
|
1
|
/proc/sys/net/ipv4/tcp_window_scaling
|
启用rfc 1323定义的window scaling,要支持超过64kb的tcp窗口,必须启用该值(1表示启用),tcp窗口最大至1gb,tcp连接双方都启用时才生效。
|
1
|
1
|
/proc/sys/net/ipv4/tcp_syncookies
|
表示是否打开tcp同步标签(syncookie),内核必须打开了config_syn_cookies项进行编译,同步标签可以防止一个套接字在有过多试图连接到达时引起过载。
|
1
|
1
|
/proc/sys/net/ipv4/tcp_tw_reuse
|
表示是否允许将处于time-wait状态的socket(time-wait的端口)用于新的tcp连接 。
|
0
|
1
|
/proc/sys/net/ipv4/tcp_tw_recycle
|
能够更快地回收time-wait套接字。
|
0
|
1
|
/proc/sys/net/ipv4/tcp_fin_timeout
|
对于本端断开的socket连接,tcp保持在fin-wait-2状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。
|
60
|
30
|
/proc/sys/net/ipv4/ip_local_port_range
|
表示tcp/udp协议允许使用的本地端口号
|
32768 61000
|
1024 65000
|
/proc/sys/net/ipv4/tcp_max_syn_backlog
|
对于还未获得对方确认的连接请求,可保存在队列中的最大数目。如果服务器经常出现过载,可以尝试增加这个数字。
|
2048
|
2048
|
/proc/sys/net/ipv4/tcp_low_latency
|
允许tcp/ip栈适应在高吞吐量情况下低延时的情况,这个选项应该禁用。
|
0
|
|
/proc/sys/net/ipv4/tcp_westwood
|
启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化,对于wan 通信来说应该启用这个选项。
|
0
|
|
/proc/sys/net/ipv4/tcp_bic
|
为快速长距离网络启用binary increase congestion,这样可以更好地利用以gb速度进行操作的链接,对于wan通信应该启用这个选项。
|
1
|
|
/etc/sysctl.conf文件
/etc/sysctl.conf是一个允许你改变正在运行中的linux系统的接口。它包含一些tcp/ip堆栈和虚拟内存系统的高级选项,可用来控制linux网络配置,由于/proc/sys/net目录内容的临时性,建议把tcpip参数的修改添加到/etc/sysctl.conf文件, 然后保存文件,使用命令“/sbin/sysctl –p”使之立即生效。具体修改方案参照上文:
net.core.rmem_default = 256960
net.core.rmem_max = 513920
net.core.wmem_default = 256960
net.core.wmem_max = 513920
net.core.netdev_max_backlog = 2000
net.core.somaxconn = 2048
net.core.optmem_max = 81920
net.ipv4.tcp_mem = 131072 262144 524288
net.ipv4.tcp_rmem = 8760 256960 4088000
net.ipv4.tcp_wmem = 8760 256960 4088000
net.ipv4.tcp_keepalive_time = 1800
net.ipv4.tcp_keepalive_intvl = 30
net.ipv4.tcp_keepalive_probes = 3
net.ipv4.tcp_sack = 1
net.ipv4.tcp_fack = 1
net.ipv4.tcp_timestamps = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_fin_timeout = 30
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_max_syn_backlog = 2048
doc2:
可调优的内核变量存在两种主要接口:sysctl命令和/proc文件系统,proc中与进程无关的所有信息都被移植到sysfs中。ipv4协议栈的sysctl参数主要是sysctl.net.core、sysctl.net.ipv4,对应的/proc文件系统是/proc/sys/net/ipv4和/proc/sys/net/core。只有内核在编译时包含了特定的属性,该参数才会出现在内核中。
对于内核参数应该谨慎调节,这些参数通常会影响到系统的整体性能。内核在启动时会根据系统的资源情况来初始化特定的变量,这种初始化的调节一般会满足通常的性能需求。
应用程序通过socket系统调用和远程主机进行通讯,每一个socket都有一个读写缓冲区。读缓冲区保存了远程主机发送过来的数据,如果缓冲区已满,则数据会被丢弃,写缓冲期保存了要发送到远程主机的数据,如果写缓冲区已慢,则系统的应用程序在写入数据时会阻塞。可知,缓冲区是有大小的。
socket缓冲区默认大小: /proc/sys/net/core/rmem_default 对应net.core.rmem_default /proc/sys/net/core/wmem_default 对应net.core.wmem_default 上面是各种类型socket的默认读写缓冲区大小,然而对于特定类型的socket则可以设置独立的值覆盖默认值大小。例如tcp类型的socket就可以用/proc/sys/net/ipv4/tcp_rmem和tcp_wmem来覆盖。
socket缓冲区最大值: /proc/sys/net/core/rmem_max 对应net.core.rmem_max /proc/sys/net/core/wmem_max 对应net.core.wmem_max
/proc/sys/net/core/netdev_max_backlog 对应 net.core.netdev_max_backlog 该参数定义了当接口收到包的速率大于内核处理包的速率时,设备的输入队列中的最大报文数。
/proc/sys/net/core/somaxconn 对应 net.core.somaxconn 通过listen系统调用可以指定的最大accept队列backlog,当排队的请求连接大于该值时,后续进来的请求连接会被丢弃。
/proc/sys/net/core/optmem_max 对应 net.core.optmem_max 每个socket的副缓冲区大小。
tcp/ipv4内核参数: 在创建socket的时候会指定socke协议和地址类型。tcp socket缓冲区大小是他自己控制而不是由core内核缓冲区控制。 /proc/sys/net/ipv4/tcp_rmem 对应net.ipv4.tcp_rmem /proc/sys/net/ipv4/tcp_wmem 对应net.ipv4.tcp_wmem 以上是tcp socket的读写缓冲区的设置,每一项里面都有三个值,第一个值是缓冲区最小值,中间值是缓冲区的默认值,最后一个是缓冲区的最大值,虽然缓冲区的值不受core缓冲区的值的限制,但是缓冲区的最大值仍旧受限于core的最大值。
/proc/sys/net/ipv4/tcp_mem 该内核参数也是包括三个值,用来定义内存管理的范围,第一个值的意思是当page数低于该值时,tcp并不认为他为内存压力,第二个值是进入内存的压力区域时所达到的页数,第三个值是所有tcp sockets所允许使用的最大page数,超过该值后,会丢弃后续报文。page是以页面为单位的,为系统中socket全局分配的内存容量。
socket的结构如下图:
/proc/sys/net/ipv4/tcp_window_scaling 对应net.ipv4.tcp_window_scaling 管理tcp的窗口缩放特性,因为在tcp头部中声明接收缓冲区的长度为26位,因此窗口不能大于64k,如果大于64k,就要打开窗口缩放。
/proc/sys/net/ipv4/tcp_sack 对应net.ipv4.tcp_sack 管理tcp的选择性应答,允许接收端向发送端传递关于字节流中丢失的序列号,减少了段丢失时需要重传的段数目,当段丢失频繁时,sack是很有益的。
/proc/sys/net/ipv4/tcp_dsack 对应net.ipv4.tcp_dsack 是对sack的改进,能够检测不必要的重传。
/proc/sys/net/ipv4/tcp_fack 对应net.ipv4.tcp_fack 对sack协议加以完善,改进tcp的拥塞控制机制。
tcp的连接管理: /proc/sys/net/ipv4/tcp_max_syn_backlog 对应net.ipv4.tcp_max_syn_backlog 每一个连接请求(syn报文)都需要排队,直至本地服务器接收,该变量就是控制每个端口的 tcp syn队列长度的。如果连接请求多余该值,则请求会被丢弃。
/proc/sys/net/ipv4/tcp_syn_retries 对应net.ipv4.tcp_syn_retries 控制内核向某个输入的syn/ack段重新发送相应的次数,低值可以更好的检测到远程主机的连接失败。可以修改为3
/proc/sys/net/ipv4/tcp_retries1 对应net.ipv4.tcp_retries1 该变量设置放弃回应一个tcp连接请求前,需要进行多少次重试。
/proc/sys/net/ipv4/tcp_retries2 对应net.ipv4.tcp_retries2 控制内核向已经建立连接的远程主机重新发送数据的次数,低值可以更早的检测到与远程主机失效的连接,因此服务器可以更快的释放该连接,可以修改为5
tcp连接的保持: /proc/sys/net/ipv4/tcp_keepalive_time 对应net.ipv4.tcp_keepalive_time 如果在该参数指定的秒数内连接始终处于空闲状态,则内核向客户端发起对该主机的探测
/proc/sys/net/ipv4/tcp_keepalive_intvl 对应net.ipv4.tcp_keepalive_intvl 该参数以秒为单位,规定内核向远程主机发送探测指针的时间间隔
/proc/sys/net/ipv4/tcp_keepalive_probes 对应net.ipv4.tcp_keepalive_probes 该参数规定内核为了检测远程主机的存活而发送的探测指针的数量,如果探测指针的数量已经使用完毕仍旧没有得到客户端的响应,即断定客户端不可达,关闭与该客户端的连接,释放相关资源。
/proc/sys/net/ipv4/ip_local_port_range 对应net.ipv4.ip_local_port_range 规定了tcp/udp可用的本地端口的范围。
tcp连接的回收: /proc/sys/net/ipv4/tcp_max_tw_buckets 对应net.ipv4.tcp_max_tw_buckets 该参数设置系统的time_wait的数量,如果超过默认值则会被立即清除。
/proc/sys/net/ipv4/tcp_tw_reuse 对应net.ipv4.tcp_tw_reuse 该参数设置time_wait重用,可以让处于time_wait的连接用于新的tcp连接
/proc/sys/net/ipv4/tcp_tw_recycle 对应net.ipv4.tcp_tw_recycle 该参数设置tcp连接中time_wait的快速回收。
/proc/sys/net/ipv4/tcp_fin_timeout 对应net.ipv4.tcp_fin_timeout 设置time_wait2进入closed的等待时间。
/proc/sys/net/ipv4/route/max_size 内核所允许的最大路由数目。
/proc/sys/net/ipv4/ip_forward 接口间转发报文
/proc/sys/net/ipv4/ip_default_ttl 报文可以经过的最大跳数
虚拟内存参数: /proc/sys/vm/
在linux kernel 2.6.25之前通过ulimit -n(setrlimit(rlimit_nofile))设置每个进程的最大打开文件句柄数不能超过nr_open(1024*1024),也就是100多w(除非重新编译内核),而在25之后,内核导出了一个sys接口可以修改这个最大值/proc/sys/fs/nr_open。shell里不能直接更改,是因为登录的时候pam已经从limits.conf中设置了上限,ulimit命令只能在低于上限的范围内发挥了。
linux中查看socket状态: cat /proc/net/sockstat #(这个是ipv4的)
sockets: used 137 tcp: inuse 49 orphan 0 tw 3272 alloc 52 mem 46 udp: inuse 1 mem 0 raw: inuse 0 frag: inuse 0 memory 0 说明: sockets: used:已使用的所有协议套接字总量 tcp: inuse:正在使用(正在侦听)的tcp套接字数量。其值≤ netstat –lnt | grep ^tcp | wc –l tcp: orphan:无主(不属于任何进程)的tcp连接数(无用、待销毁的tcp socket数) tcp: tw:等待关闭的tcp连接数。其值等于netstat –ant | grep time_wait | wc –l tcp:alloc(allocated):已分配(已建立、已申请到sk_buff)的tcp套接字数量。其值等于netstat –ant | grep ^tcp | wc –l tcp:mem:套接字缓冲区使用量(单位不详。用scp实测,速度在4803.9kb/s时:其值=11,netstat –ant 中相应的22端口的recv-q=0,send-q≈400) udp:inuse:正在使用的udp套接字数量 raw: frag:使用的ip段数量
参考:http://www.mjmwired.net/kernel/documentation/sysctl/
|