你的位置:首页 > 互联网IT
Linux系统优化,tcp优化,TCP加速,优化系统,系统设置,设置系统,Linux内核优化若干参数说明
Linux内核调优部分参数说明
系统:linux
系统优化
linux系统优化相同文章:
https://www.zhuguodong.com/?id=656
https://www.zhuguodong.com/?id=637
https://www.zhuguodong.com/?id=478
Windows系统优化相同文章:
https://www.zhuguodong.com/?id=661
https://www.zhuguodong.com/?id=659
编辑/etc/security/limits.conf文件,添加以下两行:
* soft nofile 51200
* hard nofile 51200
多连接启动:ulimit -n 51200
使用ulimit -a 可以查看当前系统的所有限制值,
使用ulimit -n 可以查看当前的最大打开文件数。
sysctl -p
编辑/etc/sysctl.conf文件:
fs.file-max = 999999
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 250000
net.core.somaxconn = 3240000
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 0
net.ipv4.tcp_fin_timeout = 12
net.ipv4.tcp_keepalive_time = 600
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_max_syn_backlog = 8192
net.ipv4.tcp_max_tw_buckets = 5000
net.ipv4.tcp_fastopen = 3
net.ipv4.tcp_mem = 25600 51200 102400
net.ipv4.tcp_rmem = 4096 32768 262142
net.ipv4.tcp_wmem = 4096 32768 262142
net.core.rmem_default = 262144
net.core.wmem_default = 262144
net.ipv4.tcp_mtu_probing = 1
vm.swappiness = 0
net.core.default_qdisc=fq
net.ipv4.tcp_congestion_control=bbr
运行生效。
sysctl -p
系统:centos网络优化
文件目录修改
linux内核优化,如果是默认值,不用修改,也能承受负载
/proc/sys/net/core/rmem_max 修改:513920 默认:16777216
/proc/sys/net/core/wmem_max 修改:513920 默认:16777216
/proc/sys/net/core/somaxconn 修改:2048 默认:3240000
/proc/sys/net/core/optmem_max 修改:81920 默认:20480
转载:文章
http://www.ttlsa.com/linux/linux-kernel-tuning-section-parameter-description/
http://www.linuxboy.net/linuxjc/94968.html
https://blog.csdn.net/zgaoq/article/details/72954460?ivk_sap=1024320u
转载:第一篇
Linux内核调优部分参数说明
#接收套接字缓冲区大小的默认值(以字节为单位)。
net.core.rmem_default = 262144
#接收套接字缓冲区大小的最大值(以字节为单位)。
net.core.rmem_max = 16777216
#发送套接字缓冲区大小的默认值(以字节为单位)。
net.core.wmem_default = 262144
#发送套接字缓冲区大小的最大值(以字节为单位)。
net.core.wmem_max = 16777216
#用来限制监听(LISTEN)队列最大数据包的数量,超过这个数量就会导致链接超时或者触发重传机制。
net.core.somaxconn = 262144
#当网卡接收数据包的速度大于内核处理的速度时,会有一个队列保存这些数据包。这个参数表示该队列的最大值。
net.core.netdev_max_backlog = 262144
#表示系统中最多有多少TCP套接字不被关联到任何一个用户文件句柄上。如果超过这里设置的数字,连接就会复位并输出警告信息。这个限制仅仅是为了防止简单的DoS攻击。此值不能太小。
net.ipv4.tcp_max_orphans = 262144
#表示那些尚未收到客户端确认信息的连接(SYN消息)队列的长度,默认为1024,加大队列长度为262144,可以容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 262144
#表示系统同时保持TIME_WAIT套接字的最大数量。如果超过此数,TIME_WAIT套接字会被立刻清除并且打印警告信息。之所以要设定这个限制,纯粹为了抵御那些简单的DoS攻击,不过,过多的TIME_WAIT套接字也会消耗服务器资源,甚至死机。
net.ipv4.tcp_max_tw_buckets = 10000
#表示允许系统打开的端口范围。
net.ipv4.ip_local_port_range = 1024 65500
#以下两参数可解决生产场景中大量连接的服务器中TIME_WAIT过多问题。
#表示开启TCP连接中TIME_WAIT套接字的快速回收,默认为0,表示关闭。
net.ipv4.tcp_tw_recycle = 1
#表示允许重用TIME_WAIT状态的套接字用于新的TCP连接,默认为0,表示关闭。
net.ipv4.tcp_tw_reuse = 1
#当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭。
net.ipv4.tcp_syncookies = 1
#表示系统允许SYN连接的重试次数。为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK包。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK包的数量。
net.ipv4.tcp_synack_retries = 1
#表示在内核放弃建立连接之前发送SYN包的数量。
net.ipv4.tcp_syn_retries = 1
#减少处于FIN-WAIT-2连接状态的时间,使系统可以处理更多的连接。
net.ipv4.tcp_fin_timeout = 30
#这个参数表示当keepalive启用时,TCP发送keepalive消息的频度。默认是2小时,若将其设置得小一些,可以更快地清理无效的连接。
net.ipv4.tcp_keepalive_time = 600
#探测消息未获得响应时,重发该消息的间隔时间(秒)。系统默认75秒。
net.ipv4.tcp_keepalive_intvl = 30
#在认定连接失效之前,发送多少个TCP的keepalive探测包。系统默认值是9。这个值乘以tcp_keepalive_intvl之后决定了,一个连接发送了keepalive探测包之后可以有多少时间没有回应。
net.ipv4.tcp_keepalive_probes = 3
#确定TCP栈应该如何反映内存使用,每个值的单位都是内存页(通常是4KB)。第一个值是内存使用的下限;第二个值是内存压力模式开始对缓冲区使用应用压力的上限;第三个值是内存使用的上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。示例中第一个值为786432*4/1024/1024=3G,第二个值为1048576*4/1024/1024=4G,第三个值为1572864*4/1024/1024=6G。
net.ipv4.tcp_mem = 786432 1048576 1572864
#此参数限制并发未完成的异步请求数目,应该设置避免I/O子系统故障。
fs.aio-max-nr = 1048576
#该参数决定了系统中所允许的文件句柄最大数目,文件句柄设置代表linux系统中可以打开的文件的数量。
fs.file-max = 6815744
#第一列,表示每个信号集中的最大信号量数目。
#第二列,表示系统范围内的最大信号量总数目。
#第三列,表示每个信号发生时的最大系统操作数目。
#第四列,表示系统范围内的最大信号集总数目。
#(第一列)*(第四列)=(第二列)
kernel.sem = 250 32000 100 128
#表示尽量使用内存,减少使用磁盘swap交换分区,内存速度明显高于磁盘一个数量级。
vm.swappiness = 0
转载:第二篇
做过Linux平台性能测试的童鞋平时可能会遇到如下问题:
1、 TCP端口号不够用导致并发上不去(即与服务器端建立新连接失败)
2、 TIME_WAIT状态连接过多导致应用服务器(Nginx、Haproxy、Redis、Tomcat等)性能下降或假死
等等
我们可以通过优化系统内核参数来解决上述问题,优化步骤如下:
Linux 平台
1、 参考附件1中sysctl.conf文件替换或修改系统中/etc/sysctl.conf
意义:
(1) 突破系统最大打开文件描述符数限制(系统级别)
(2) 提高系统网络负载
2、 使用命令“sysctl -p /etc/sysctl.conf”使步骤1修改生效
备注:error: “net.bridge.bridge-nf-call-ip6tables” is an unknown key 解决方法
modprobe bridge
lsmod|grep bridge
3、 修改/etc/security/limits.conf,添加如下内容:
* hard nofile 1024000
* soft nofile 1024000
意义:突破 进程最大打开文件描述符数限制(用户级别)
4、 重新登录服务器使其步骤3修改生效
备注:
(1) 修改过程中需注意:
a. 所有进程打开的文件描述符数不能超过/proc/sys/fs/file-max
b. 单个进程打开的文件描述符数不能超过user limit中nofile的soft limit
c. nofile的soft limit不能超过其hard limit
d. nofile的hard limit不能超过/proc/sys/fs/nr_open
(2) /etc/security/limits.conf里面修改文件描述符数量,建议带上账号,*号代表了所有账户!
1) 新建kdxf运行的账户(一般不使用root账户;现网安全起见一般会禁用root账户直接登录权限,需要从普通账户登录后切换至root)
2) 关闭Linux系统SELINUX和防火墙(需要重启操作系统,SELINUX安全系统控制过严,可能会影响进程访问操作系统某些资源)
修改/etc/selinux/config文件中SELINUX=”“为disabled
关闭防火墙使用命令:
chkconfig iptables off
chkconfig ip6tables off
3) 系统字符集编码配置(系统默认utf-8,在需要的时候可以修改系统字符集,需要重启操作系统)
修改/etc/sysconfig/i18n配置文件中的LANG
LANG="zh_CN.GB18030"
修改/etc/profile,增加两行:
export.GB18030
export LC_ALL=zh_CN.GB18030
4) 产生core文件配置(该配置是应用程序在崩溃时能自动产生一个崩溃core文件,有助于开发定位崩溃原因)
修改/etc/profile,增加一行:
ulimit -c unlimited
修改/etc/sysctl.conf文件,设置
fs.suid_dumpable = 1
运行以下命令使得配置生效
sysctl -p
5) 用户最大进程数配置
Centos5环境修改/etc/security/limits.conf文件
Centos6环境修改/etc/security/limits.d/90-nproc.conf文件
kdxf hard nproc unlimited
kdxf soft nproc unlimited
注:这里kdxf代表运行应用程序的普通系统账户,请根据实际填写!
附件1:sysctl.conf
# Kernel sysctl configuration file for Red Hat Linux
# For binary values, 0 is disabled, 1 is enabled. See sysctl(8) and
# sysctl.conf(5) for more details.
# Controls IP packet forwarding
net.ipv4.ip_forward = 0
# Controls source route verification
net.ipv4.conf.all.rp_filter=0
net.ipv4.conf.default.rp_filter=0
# Do not accept source routing
net.ipv4.conf.default.accept_source_route = 0
# Controls the System Request debugging functionality of the kernel
kernel.sysrq = 0
# Controls whether core dumps will append the PID to the core filename.
# Useful for debugging multi-threaded applications.
kernel.core_uses_pid = 1
# Controls the use of TCP syncookies
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_fin_timeout = 12
net.ipv4.tcp_keepalive_time = 1200
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_max_syn_backlog = 8192
# Disable netfilter on bridges.
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0
# Controls the default maxmimum size of a mesage queue
kernel.msgmnb = 65536
# Controls the maximum size of a message, in bytes
kernel.msgmax = 65536
# Controls the maximum shared segment size, in bytes
kernel.shmmax = 68719476736
# Controls the maximum number of shared memory segments, in pages
kernel.shmall = 4294967296
# Disable IPv6
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
# Determines how often to check for stale neighbor entries.
net.ipv4.neigh.default.gc_stale_time=120
# Using arp_announce/arp_ignore to solve the ARP Problem
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.all.arp_announce=2
vm.swappiness = 0
net.ipv4.tcp_max_tw_buckets = 50000
net.ipv4.tcp_max_syn_backlog = 1024
net.ipv4.tcp_synack_retries = 2
net.ipv4.conf.lo.arp_announce=2
# Controls the application is able to bind to not belong to the local network address
net.ipv4.ip_nonlocal_bind=1
fs.file-max = 1700000
转载:第三篇
Linux 内核优化若干参数说明
Linux 针对服务,为了提升性能会进行若干参数的调整,以下针对配合nginx 若干优化的说明
1.vim /etc/sysctl.conf 来改内核参数。
fs.file-max = 999999
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_keepalive_time = 600
net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_max_tw_buckets = 5000
net.ipv4.ip_local_port_range = 1024 61000
net.ipv4.tcp_rmem = 4096 32768 262142
net.ipv4.tcp_wmem = 4096 32768 262142
net.core.netdev_max_backlog = 8096
net.core.rmem_default = 262144
net.core.wmem_default = 262144
net.core.rmem_max = 262144
net.core.wmem_max = 262144
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_max_syn.backlog=1024
注:
1>file-max:这个参数表示进程(比如一个worker 进程)可以同时打开的最大句柄数,这个参数直接限制最大并发连接数,需要根据实际的情况配置
2>tcp_tw_reuse:这个参数设置为1,表示允许将time-wait 状态的socket 重新用于新的tcp连接,这
对于服务器来说很有意义,因为服务上总会有大量time-wait 状态的连接
3>tcp_keepalive_time :这个参数表示当keepalive 启用时,tcp 发送keepalive 消息的频度,默认是2小时,如果把他设置的小一些,可以更快的清理无效的连接。
4>tcp_fin_timeout: 这个参数表示当服务器主动关闭连接时,socket 保持在FIN-WAIT-2状态的最大时间。
5>tcp_max_tw_buckets:这个参数表示操作系统允许time_wait 套接字数量的最大值,如果超过这个值,time_wait
套接字将被立刻清楚并被打印上警告信息,该参数默认为180 000,过多的time_wait 套接字会是服务器变慢
6>tcp_max_syn_backlog:这个参数表示tcp三次握手建立阶段接受syn请求队列的最大长度,默认为1024,将其设置的大一些
可以使出现nginx 繁忙来不及accept 新连接的情况时,linux 不至于丢失客户端发起的连接请求
7>ip_local_port_range:这个参数定义了再udp和tcp 连接中本地(不包括连接远端)端口的取值范围。
8>net.ipv4.tcp_rmem:这个参数定义了tcp 接受缓存(用于tcp接受滑动窗口)的最小值,默认值和最大值
9>net.ipv4.tcp_wmem:这个参数定义了tcp 发送缓存(用于tcp发送滑动窗口)的最小值,默认值和做大值
10>netdev_max_backlog:当网卡接受数据包的速度大于内核处理的速度时,会有一个队列保存这些数据包。该参数表示该队列的最大值。
11>rmem_default:这个参数表示内核套字接受缓存区默认的大小。
12>wmem_default:这个参数表示内核套字发送缓存区默认的大小。
13>rmem_max:这个参数表示内核套字接受缓存区最大大小.
14>rmem_max:这个参数表示内核套字发送缓存区最大大小.
注意:滑动窗口的大小与套接字缓存区会在一定程度上影响并发连接的数目。每个tcp连接都会为维护tcp滑动窗口而消耗内存,这个窗口会根据
服务器的处理速度收缩或扩张。连接数
参数wmem_max 的设置,需要平衡物理内存的总大小、nginx 并发处理的最大连接数量(。有nginx.conf中的worker_processes 和worker_connection参数决定)而确定。滑动窗口过下会影响大数据量的传输速度。rmem_default、wmem_default、rmem_max、wmem_max 这
4个参赛的设置要根据应用的业务需求去确定
15>tcp_syncookies:该参数与性能无关,用于解决tcp的syn攻击。
发表评论: