net.Listen 默认 SO_BACKLOG=128 易致连接队列饱和,引发 Connection refused;应调大 net.core.somaxconn 并显式设置 TCPListener backlog。
net.Listen 默认配置会成为吞吐瓶颈Go 的 net.Listen 在 Linux 上默认使用 SO_BACKLOG 值为 128(内核限制下实际可能更低),当并发连接突增时,未被 Accept 的连接会堆积在队列里,超限后客户端收到 Connection refused 或长时间 SYN 超时。这不是 Go 本身慢,而是队列满导致连接被丢弃。
ss -lnt 观察 Recv-Q 是否持续非零,若接近 net.core.somaxconn 值,说明队列已饱和ln, err := net.Listen("tcp", ":8080")
if err != nil {
log.Fatal(err)
}
// 设置系统级 backlog(需 os.IsPermission 检查)
if tcpLn, ok := ln.(*net.TCPListener); ok {
if err := tcpLn.SetDeadline(time.Now().Add(10 * time.Second)); err == nil {
// 实际生效依赖于 syscall.SetsockoptInt32 和 SO_BACKLOG
// 更可靠方式:启动前执行 sysctl -w net.core.somaxconn=4096
}
}sysctl -w net.core.somaxconn=4096,并确保 /proc/sys/net/core/somaxconn 已生效http.Server 的默认 ReadTimeout 拖垮长连接吞吐HTTP 服务器启用 ReadTimeout 后,每个连接都会启动一个定时器。高并发下大量定时器触发、GC 扫描 timer heap,反而增加延迟和 CPU 开销——尤其在连接复用(keep-alive)场景下,本该复用的连接被无谓中断。
srv := &http.Server{
Addr: ":8080",
Handler: myHandler,
ReadTimeout: 0, // 关键:禁用读超时
WriteTimeout: 0,
IdleTimeout: 30 * time.Second, // 仅控制空闲连接生命周期
}http.TimeoutHandler 是 handler 层面的包装,不干扰底层连接复用ReadTimeout 后,需确保应用层能主动检测粘包、恶意不发请求的客户端,否则可能泄露 goroutinenet.Conn 复用与缓冲区大小对吞吐的实际影响每次 conn.Read() 都是一次系统调用,小缓冲区(如默认 4KB)会导致高频 syscall,尤其在处理大 payload 或流式数据时。而过大的缓冲区又浪费内存且延迟响应。
bufio.NewReaderSize(conn, 64*1024) 显式设为 64KB,平衡 syscall 频率与内存占用bufio.Reader:它本身轻量,但频繁 alloc/free 会抬高 GC 压力http.Server,它内部已封装缓冲逻辑,无需手动套 bufio;但自定义协议(如 WebSocket 底层帧解析、Redis 协议)必须自己管理缓冲区runtime.GOMAXPROCS 设太高反而降低网络吞吐很多人以为把 GOMAXPROCS 设成 CPU 核数 × 2 就能提升并发能力,但在典型网络服务中,过多的 P 会导致调度器频繁迁移 goroutine、M 在不同 OS 线程间切换开销上升,尤其当 epoll/kqueue 事件分发不均时,部分 P 长时间空转,另一些 P 积压大量就绪 goroutine。
GOMAXPROCS 等于物理 CPU 核数(numa_node 内核数),除非明确有计算密集型子任务混跑go tool trace 观察 Proc 状态:若频繁出现 “idle” 或 “spinning”,说明 P 过多
conn.Read() 的 goroutine 不消耗 P,只等待 fd 就绪网络吞吐的瓶颈往往不在代码写法,而在操作系统参数、缓冲区策略和连接生命周期管理这些“看不见”的环节。调优时优先看 ss -i、go tool pprof -http 和 /proc/net/softnet_stat,而不是急着加 goroutine。