·设为首页收藏本站📧邮箱修改🎁免费下载专区📒收藏夹👽聊天室
返回列表 发布新帖

分享代码!看到还有很多人不知道怎么屏蔽辣鸡蜘蛛!!!

75 9
发表于 昨天 21:41 | 查看全部 阅读模式

马上注册,免费下载更多dz插件网资源。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
如果用的是宝塔面板!

宝塔-网站-设置-配置文件

把以下代码添加进去!
解决百分之90以上的垃圾蜘蛛!
服务器瞬间就清净了!
  1. #禁止Scrapy等工具的抓取if ($http_user_agent ~* (Scrapy|HttpClient|crawl|curb|git|Wtrace)) {     return 403;}#禁止指定UA及UA为空的访问if ($http_user_agent ~* "CheckMarkNetwork|Synapse|Nimbostratus-Bot|Dark|scraper|LMAO|Hakai|Gemini|Wappalyzer|masscan|crawler4j|Mappy|Center|eright|aiohttp|MauiBot|Crawler|researchscan|Dispatch|AlphaBot|Census|ips-agent|NetcraftSurveyAgent|ToutiaoSpider|EasyHttp|Iframely|sysscan|fasthttp|muhstik|DeuSu|mstshash|HTTP_Request|ExtLinksBot|package|SafeDNSBot|CPython|SiteExplorer|SSH|MegaIndex|BUbiNG|CCBot|NetTrack|Digincore|aiHitBot|SurdotlyBot|null|SemrushBot|Test|Copied|ltx71|Nmap|DotBot|AdsBot|InetURL|Pcore-HTTP|PocketParser|Wotbox|newspaper|DnyzBot|redback|PiplBot|SMTBot|WinHTTP|Auto Spider 1.0|GrabNet|TurnitinBot|Go-Ahead-Got-It|Download Demon|Go!Zilla|GetWeb!|GetRight|libwww-perl|Cliqzbot|MailChimp|SMTBot|Dataprovider|XoviBot|linkdexbot|SeznamBot|Qwantify|spbot|evc-batch|zgrab|Go-http-client|FeedDemon|Jullo|Feedly|YandexBot|oBot|FlightDeckReports|Linguee Bot|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|EasouSpider|LinkpadBot|Ezooms|^[        DISCUZ_CODE_0        ]quot; ) {      return 403; }#禁止非GET|HEAD|POST方式的抓取if ($request_method !~ ^(GET|HEAD|POST)$) {    return 403;}    #屏蔽垃圾蜘蛛    if ($request_method ~ ^(HEAD)$ ) {                return 444 "FUCK U";    }    if ($http_range ~ "\d(9,)") {                return 444;    }    if ($http_user_agent ~* (Amazonbot|SemrushBot|python|Linespider|crawler|DingTalkBot|simplecrawler|ZoominfoBot|zoombot|Neevabot|coccocbot|Facebot|YandexBot|Adsbot|DotBot|Applebot|DataForSeoBot|MJ12bot|BLEXBot|trendictionbot0|trendictionbot|AhrefsBot|hubspot|opensiteexplorer|leiki|webmeup|TinyTestBot|Symfony|PetalBot|proximic|GrapeshotCrawler|YaoSouBot|serpstatbot|Scrapy|Go-http-client|CCBot|CensysInspect|facebookexternalhit|GPTBot|ClaudeBot|Python-urllib|meta-externalagent|Yisouspider)) { return 444;     }    #禁止访问的文件或目录    location ~ ^/(\.user.ini|\.htaccess|\.git|\.env|\.svn|\.project|LICENSE|README.md)    {        return 404;    }
复制代码
我要说一句 收起回复

评论9

婷姐Lv.8 发表于 昨天 21:42 | 查看全部
先收藏个再说
我要说一句 收起回复
浅生Lv.8 发表于 昨天 21:42 | 查看全部
学习了
我要说一句 收起回复
浅生Lv.8 发表于 昨天 21:43 | 查看全部
收藏了
我要说一句 收起回复
独家记忆Lv.8 发表于 昨天 21:43 | 查看全部
如果在robots.txt里面直接用
User-agent: *
Disallow: /
和你这个代码有什么区别?
当然,robots.txt里面会保留常见蜘蛛的访问。
我要说一句 收起回复
CrystαlLv.8 发表于 昨天 21:44 | 查看全部
学习了 学习了 学习了
我要说一句 收起回复
独家记忆Lv.8 发表于 昨天 21:44 | 查看全部
robots.txt 不行吗?
我要说一句 收起回复
IT618发布Lv.8 发表于 昨天 21:44 | 查看全部
支持一下!
我要说一句 收起回复
TyCodingLv.8 发表于 昨天 21:45 | 查看全部
感谢分享
我要说一句 收起回复
apwlLv.2 发表于 昨天 22:38 | 查看全部 | Edg | Windows 10
学习了,收藏一下,感谢佬
我要说一句 收起回复

回复

 懒得打字嘛,点击右侧快捷回复【查看最新发布】   【应用商城享更多资源】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

投诉/建议联系

discuzaddons@vip.qq.com

未经授权禁止转载,复制和建立镜像,
如有违反,按照公告处理!!!
  • 联系QQ客服
  • 添加微信客服

联系DZ插件网微信客服|最近更新|Archiver|手机版|小黑屋|DZ插件网! ( 鄂ICP备20010621号-1 )|网站地图 知道创宇云防御

您的IP:18.118.95.173,GMT+8, 2025-2-28 03:58 , Processed in 0.215608 second(s), 126 queries , Gzip On, Redis On.

Powered by Discuz! X5.0 Licensed

© 2001-2025 Discuz! Team.

关灯 在本版发帖
扫一扫添加微信客服
QQ客服返回顶部
快速回复 返回顶部 返回列表