yun 发表于 2017-1-19 07:06:44

用shell分析网站蜘蛛抓取日志

为何要日志分析:“首先要知道数据做什么用,怎么用,分析的意义在哪里!但是本身这个只是指导你工作决策的,不能太执迷! 我看很多人把大量时间都在折腾蜘蛛去了,也是不正确的方法!自己一定要搞清目的。。。。。“
日志分析关注的点要了解,要了解哪些维度,如何分析。。。。。
现在把罗列下这些项://统计不重复抓取数量//统计所有状态码数量//统计某个目录抓取次数//统计各个目录出现404响应码次数//统计404页面的抓取数量//统计每个ip下对应URL的抓取次数//提取百度蜘蛛访问数量前10的网站目录及访问次数,并按降序排列//提取某个目录百度蛛蛛访问次数//统计首页抓取的次数占总体抓取次数比率//统计404响应码占总响应码比率//计算百度抓取总时间与总抓取次数//计算百度抓取总字节数//计算平均每次每个网页抓取字节数(小数点后面大于5进1)
底下都举一个例子,大家就自己套用。。 下面我们就进入演示。。。。请大家盯紧了。。这是我日志截图:



//统计不重复抓取数量cat baidu.log | awk '{print $4}'|sort|uniq|wc -l

//统计所有状态码数量awk '{print $10}' baidu.log |sort|uniq -c


//统计某个目录抓取次数grep "/shop" baidu.log | awk '{print $4}' |sort |wc –l

//统计各个目录出现404响应码次数

//统计404页面的抓取数量awk '{if($10=="404"){print $0}}' baidu.log|sort|uniq|wc -l

//统计每个ip下对应URL的抓取次数awk '{print $6,$4}' baidu.log |sort|uniq –c

/提取百度蜘蛛访问数量前10的网站目录及访问次数,并按降序排列awk '{print $4}' baidu.log |grep -P "[^/(a-zA-Z)|^/(a-zA-Z)/]"|awk -F"/" '{print $2}'|sort|uniq -c|sort -r|head -10

//提取某个目录百度蛛蛛访问次数cat baidu.log | grep “/shop/”| wc –lcat baidu.log |awk ‘{print $4}’ |grep “/shop/” |wc –lcat baidu.log |awk ‘{print $4} |awk –F”/” ‘{print $2}’|grep “shop”|wc -l


//统计首页抓取的次数占总体抓取次数比率cat baidu.log |awk '{print $4}'|awk '{if($0=="/"){n=n+1}}END{print n/NR*100"%"}'

//统计404响应码占总响应码比率cat baidu.log |awk '{print $10}'|awk '{if($0=="404"){n=n+1}}END{print n/NR*100"%"}'

//计算百度抓取总时间与总抓取次数cat baidu.log|awk '{FS=" "} {print $2}'|awk -F":" '{print $2}'| sort |uniq -c|awk 'BEGIN{print "小时","次数"} {print $2,$1}'|awk '{for(n=0;n<5;n++){b=$2}} {a+=b} {print $0}END{print "总数"b,a}’


/计算百度抓取总字节数cat baidu.log |awk '{print $11}'|awk 'BEGIN{total=0}{total+=$1}END{print total}'

//计算平均每次每个网页抓取字节数(小数点后面大于5进1)

页: [1]
查看完整版本: 用shell分析网站蜘蛛抓取日志