最近在做一个 Redis 的 Proxy 的项目,其中利用Redis 6.0 新加的 tracking 功能实现客户端缓存的功能,可以为某些特定的redis使用场景提高吞吐和延迟。
当然,cache的实现也是有代价的。首先,cache的大小不能无限制的大,否则总有一点会把内存撑爆的;其次,cache的淘汰算法有多种方式,LRU、LFU等等,具体可以参考Cache replacement policies,不同的场景下各种淘汰算法的效果是不一样的;第三,对于大并发情况实现cache是有代价的,因为并发情况下对cache的访问需要加锁,而加锁就意味着有性能的损失。
我在实现这个cache的过程中稍微偷了一下懒, 想尽量的减少锁的scope,结果导致内存泄漏的问题。本来cache占用的最大内存我设置为10GB, 结果过了个周末发现程序已经占用了80GB的内存了。
当然本文不是要介绍这个项目的内存泄漏原因,而是介绍一下Go pprof工具查找内存泄漏的一个不太常用的方法。
检查Go程序内存的使用情况最常用的就是Go标准库自带的pprof库了,可以通过http暴露出这个profile, 然后通过go tool pprof
或者pprof
工具命令行/web方式查看。
比如下面的命令, 可以获取服务器http://ip:port
的堆信息,并且在本机9090
端口启动一个服务器展示堆的信息。
|
|
在堆信息中你可以查看分配的堆的大小和对象数量,或者当前没有释放的占用的堆的大小和对象数量。
正常情况下使用这个方式就可以比较直观的看到哪一段代码分配的内存比较多,然后确定那里容易产生内存泄漏。
但是, 分配堆内存比较多的地方并不一定产生内存泄漏,只能说明这个地方"曾经/正在"分配的堆内存比较大,或者分配的堆内存比较频繁俄安,这些分配的内存可能在之后就回收掉了。
像Java的一些profiler工具一样, pprof
也可以比较两个时间点的分配的内存的差值,通过比较差值,就容易看到哪些地方产生的内存"残留"的比较多,没有被内存释放,极有可能是内存泄漏的点。
你可以通过下面的方式产生两个时间点的堆的profile,之后使用pprof
工具进行分析。
- 首先确保你已经配置了pprof的http路径, 可以访问
http://ip:port/debug/pprof/
查看(如果你没有修改默认的pprof路径) - 导出时间点1的堆的profile:
curl -s http://127.0.0.1:8080/debug/pprof/heap > base.heap
, 我们把它作为基准点 - 喝杯茶,等待一段时间后导出时间点2的堆的profile:
curl -s http://127.0.0.1:8080/debug/pprof/heap > current.heap
- 现在你就可以比较这两个时间点的堆的差异了:
go tool pprof --base base.heap current.heap
操作和正常的go tool pprof
操作一样, 比如使用top
查看使用堆内存最多的几处地方的内存增删情况:
使用web
命令会生成一个SVG文件,可能你需要使用浏览器打开它。
或者你直接使用命令打开web界面: go tool pprof --http :9090 --base base.heap current.heap
。