前言
UV(Unique Visitor):独立访客,以cookie为依据区分不同访客,UV计算一天之内(00:00-24:00),访问网站的访客数量。 PV(Page View):页面访问量,同一个用户对页面多次访问累计。本文介绍一种通过分析nginx日志统计pv、uv的方法。
一、方案设计
如何根据Nginx的访问日志统计pv和uv呢?
我们可以通过分析nginx的访问网站页面的日志来统计参数,比如一个单页应用的博客网站,用户访问/、/article_list、/article_detail都应该算作一次访问。
但是如果网站的路由不确定时候,就不好统计。当路由变化时候,需要更新统计脚本。而且,用户首次访问后才设置了cookie,所以首次页面请求是不带cookie的,这会导致漏报。另外,用cookie记录数据,由于是js写的cookie,所以需要保证同域访问,这就很不灵活。如果不是js写的cookie,那就说明依赖后端服务,也不够灵活。
所以我们采取的方法是前端上报页面访问事件。
首先前端生成一个uuid,向Nginx发起一个请求并携带uuid,Nginx会精确匹配这个请求,然后返回204,以减小数据传输量。
由于上报地址和页面是同域的,因此我们这里使用cookie保存uuid,如果不同域,还可以使用localStorage将uuid存在本地,然后在参数中将uuid带上。
Nginx收到上报后,根据我们指定的固定格式生成日志。我们还要设置定时任务,定期切割日志,以便分析日志时候以月和天为维度统计指标。
整体流程示意图如下:
二、上报访问事件
前端使用uuid这个库生成uuid,使用js-cookie对cookie进行读写,cookie有效期设置为30天,如果已经存在则不设置。
这里上报地址是“/report.gif”。为了避免上报请求被缓存,请求参数加一个时间戳。
Nginx需要配置响应
三、Nginx配置日志格式
我们可以指定Nginx访问日志的格式,分析日志时候更方便。
注意,log_format指令只能用在http模块中,不能用在server模块中。
这里在http模块中通过log_format定义了一个格式,命名为main,然后在server模块中使用access_log定义访问日志的存放目录,并且引用main指定日志格式。server模块中还匹配了请求里面的cookie,取出uuid赋值给$uuid变量以便写日志时候能够正常读取uuid。
我们会得到这样的日志
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /assets/vendor.337922eb.js HTTP/1.1” – 304 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /assets/style.81f77c22.css HTTP/1.1” – 200 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /assets/index.9c0fae7c.js HTTP/1.1” – 304 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /assets/quiz.5e3bb724.js HTTP/1.1” – 304 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /report.gif?id=0&t=1651628194189 HTTP/1.1” – 204 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /assets/logo.c5f2dde3.jpeg HTTP/1.1” – 200 “uuid:a27050e998864af89de0fbc7605d1548”
101.241.91.99 – [04/May/2022:09:36:34 +0800] “GET /favicon.ico HTTP/1.1” – 200 “uuid:a27050e998864af89de0fbc7605d1548”四、日志切割
为了方便统计我们希望把日志文件按时间分割,分割成这样的结构:
├── 2022
│ └── 05
│ └── 03.log按照年、月、日分层,每天生成一个日志。
实现思路是,先建立一个日志存放目录,每天的凌晨0点1分,将前一天的日志按照日期移动到日志目录中。然后再重新创建一个日志文件供Nginx写入。
先写一个脚本实现这个功能
log_split.sh
值得注意的是,虽然移动完日志,并且重新创建,但是Nginx的文件引用还是移走的那个,所以最后要给Nginx发送信号,让它写到新的日志文件中。
脚本写完,我们还要定时(每天0点1分执行切割任务),这用到了Linux的crontab工具。
首先在控制台输入crontab -e打开编辑界面。然后输入1 0 * * * sh /path/to/log/log_split.sh。这个定时任务的意思是每天0点1分执行日志分割脚本,编辑完成后保存关闭,定时任务就生效了。
我们还可以通过crontab -l查看当前的定时任务;通过crontab -r移除当前的定时任务。
五、Nodejs脚本分析日志,统计PV、UV
有了日志,就很容易分析PV、UV。我们可以使用Linux命令分析,但我这次选择用Nodejs脚本来统计,原因是对JS更熟悉,另外相对Linux也更灵活。
分析的大概思路是根据每天的访问日志,过滤出report.gif这个上报请求,上报次数就是PV,然后根据uuid去重,得到UV。
统计脚本如下:
执行统计脚本node stats.js 2022
打印结果
05月
03日 pv: 1 uv: 1六、展望
后续可以考虑扩展现有能力,让Node实现日志切割的功能,并提供api和界面,可以可视化统计PV、UV。
到此这篇关于Nginx访问日志统计PV与UV的文章就介绍到这了,更多相关Nginx统计PV与UV内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://juejin.cn/post/7093699777572896804