我们专注攀枝花网站设计 攀枝花网站制作 攀枝花网站建设
成都网站建设公司服务热线:400-028-6601

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Shell解决RedisSlowLog去重问题

建站服务器

老东家监测Redis的慢查询日志,采用Crontab 每隔一段时间对慢查询日志采样,然后追加写入一个文本文件。

创新互联建站长期为上1000家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为滦南企业提供专业的成都网站设计、网站建设,滦南网站改版等技术服务。拥有十多年丰富建站经验和众多成功案例,为您定制开发。

所以文本文件中有很多重复的慢查询日志

如何对整段重复的慢查询日志去重呢?

采用Shell 命令的方式最简单和直接。

awk'/^1\\)/{prints;s=""};{s=(s""$0)};END{prints}'b.txt|sort|uniq|sed's//\\n/g'|awk'/^1\\)\\(integer\\)/{rc=rc+1;rowdata=rc")\\t"$1""$2""$3"\\n\\t"$4""$5""$6""$7"\\n\\t"$8""$9""$10;printrowdata};/^/{print"\\t"$0}END{print"不重复日志总数:"rc}'

核心就是把整段的redis日志先合并为一行,去重之后,在还原格式。

下面是用于测试的附件

redisSlowLog.txt

附王工对这个问题的需求描述和说明。

https://blog.csdn.net/wzy0623/article/details/83652539?tdsourcetag=s_pcqq_aiomsg


文章标题:Shell解决RedisSlowLog去重问题
当前路径:http://shouzuofang.com/article/cjdogd.html

其他资讯