admin 发表于 2022-10-15 23:12:24

使用Discuz! Nginx环境伪静态规则的一些安全规则伪静态设置技巧分享

使用Discuz! Nginx环境伪静态规则的一些安全规则伪静态设置技巧分享,按需添加:(请按照自己需求摘取添加。)

#请求这些敏感词时跳转下载10g文件
if ($request_uri ~* "(\.gz)|(")|(\.tar)|(admin)|(\.zip)|(\.sql)|(\.asp)|(\.rar)|(function)|($_GET)|(eval)|(\?php)|(config)|(\')|(\.bak)") {
            return 301 http://lg-dene.fdcservers.net/10GBtest.zip;
      }


#禁止下载以 XXX 后缀的文件
location ~ \.(zip|rar|sql|bak|gz|7z)$
{
   return 444;
}


#访问链接里含有 test 直接跳转到公安网
if ($request_uri ~* test=) {
return 301 https://www.mps.gov.cn;
}


#屏蔽非常见蜘蛛爬虫配置
if ($http_user_agent ~* (SemrushBot|python|MJ12bot|AhrefsBot|AhrefsBot|hubspot|opensiteexplorer|leiki|webmeup)) {
   return 444;
}


#禁止某个目录执行脚本
#uploads|templets|data 这些目录禁止执行PHP
location ~* ^/(uploads|templets|data)/.*.(php|php5)$ {
    return 444;
}

#禁止爬虫返回404【禁止任何爬虫收录网站】
if ($http_user_agent ~* "qihoobot|Censys|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot|FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|Scrapy|HttpClient|MJ12bot|heritrix|EasouSpider|LinkpadBot|Ezooms|^$") {
      return 404;
}

#非指定域名访问返回403
if ($host != 'XX.XX.XX'){
    return 403;
       }

#仅允许特定IP访问并加上帐号密码验证
root /opt/hostloc/www;
allowxx.xx.xx.xx;
allow2xx.xx.x.xx;
denyall;
auth_basic “test”;
auth_basic_user_file htpasswd;

#禁止访问多个目录
location ~ ^/(cron|templates)/
{
deny all;
break;
}

#隐藏nginx版本号
http块添加
http {
...
server_tokens off;
...
}

#禁止非浏览器访问
if ($http_user_agent ~ ^$) {
      return 412;
}


#限制http版本号,只允许下面3个HTTP版本
if ($server_protocol !~* "HTTP/2.0|HTTP/3.0|SPDY/3.1") {
    return 403;
}


#下面3个规则比较暴力,酌情引用
#禁止非 Mozilla/ 请求头的访问
if ($http_user_agent !~* "Mozilla/") {
    return 403;
}

#禁止非GET|HEAD|POST方式的抓取
if ($request_method !~ ^(GET|HEAD|POST)$) {
    return 403;
}

#禁止Scrapy等爬虫工具的采集
if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {
    return 403;
}


bit 发表于 2022-10-16 08:39:31

又来学习新知识了!感谢站长分享~~

xiaojie83 发表于 2022-10-18 12:25:04

全部规则用到DZ上适合不,

admin 发表于 2022-10-18 12:25:52

xiaojie83 发表于 2022-10-18 12:25
全部规则用到DZ上适合不,

不适合,按需选用,不要全部照抄。

xiaojie83 发表于 2022-10-18 12:27:55

admin 发表于 2022-10-18 12:25
不适合,按需选用,不要全部照抄。

恩好的,就防止别人恶意请求和渗透,盗取网站文件

bit 发表于 2024-10-3 16:29:55

禁止非浏览器访问的话 那些采集器是不是就不能用了?
页: [1]
查看完整版本: 使用Discuz! Nginx环境伪静态规则的一些安全规则伪静态设置技巧分享

创宇盾启航版免费网站防御网站加速服务