最近给网站加了一个HTTP访问统计中间件,发现一堆Bot
看了下百度统计,网站只有百来个IP和一百多的UV和PV,内容也不怎更新,但是天天爬,googlebot/bingbot/360bot/baidubot/semrushbot,一天给个干5000+记录,尤其是这个semrush,框框请求啊,所有的加起来都没它多
公司另外一个几千IP/UV的我没加这个统计,我估计加上得十几万记录了每天,有没有什么好的办法拦截这些非必要的爬虫,我网站正常只加了百度统计的代码,4核8G8M带宽打开有时候卡卡的

关于 LearnKu
分析特征过滤啊(屏蔽国外ip),robots文件修改啊(防君子)
安全组屏蔽下
最简单,nginx 屏蔽 相关的 ua
ngnix防火墙,搞一个ip黑名单,写个脚本,设置规则例如1秒请求超过3次就加入黑名单;结合装一个Fail2ban,设置规则,两个基本够用了。宝塔里就有。