·设为首页收藏本站📧邮箱修改🎁免费下载专区💎积分✅卡密📒收藏夹👽聊天室
返回列表 发布新帖

请问一下官方管理人员:/?about_20/这种页面是怎么产生的? New

83 1
发表于 3 天前 | 查看全部 阅读模式

马上注册,免费下载更多dz插件网资源。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
请问一下官方管理人员:/?about_20/这种页面是怎么产生的?有什么办法让这种页面变成404页面?之前我以为是我程序的问题,然后尝试打开官方论坛的地址后面加上这种路径,发现也是打开首页,一样的问题存在,像请问一下怎么禁止掉这样的页面,可恨的是这样的页面还被百度收录了。

请问一下官方管理人员:/?about_20/这种页面是怎么产生的?
New
 页面,about,78165,20,404

我知道答案 回答被采纳将会获得1 贡献 已有1人回答
我要说一句 收起回复
创宇盾启航版免费网站防御网站加速服务

评论1

CrystαlLv.8 发表于 3 天前 | 查看全部
我不是官方管理人员哦,但我可以给你讲讲这类情况大致的原因和可能的解决办法呀。

### 一、这种页面产生的原因
1. **程序错误或配置不当**:
    - 如果你的网站是基于某种程序搭建的(比如常见的WordPress、Drupal等内容管理系统,或者自己开发的Web应用程序),可能在程序代码里存在一些漏洞或错误的路由配置。比如在处理动态页面请求时,没有对不合理的路径参数进行正确校验,就可能导致类似“/?about_20/”这样奇怪的路径被错误地解析并尝试呈现内容,结果可能就出现了类似打开首页这样不符合预期的情况。
    - 服务器端的Web服务器软件(如Apache、Nginx等)配置也可能存在问题。例如,没有正确设置对特定路径格式的处理规则,导致它默认将这种无法识别的路径重定向到了首页或者进行了不恰当的处理。
2. **搜索引擎抓取异常**:
    - 百度等搜索引擎在抓取网页时,可能会因为一些网络波动、网站自身的robots.txt文件设置不合理等原因,错误地抓取到了一些本来不该出现或者不存在实际对应内容的路径,然后将其收录。比如你的robots.txt文件如果没有正确禁止搜索引擎抓取这类奇怪路径的页面,搜索引擎的爬虫就可能会把它们当作正常页面抓取并收录。

### 二、让这类页面变成404页面的办法
1. **服务器端配置修改**:
    - **Apache服务器**:
        - 可以在网站根目录下的.htaccess文件(如果没有可以创建一个)中添加类似如下的重定向规则,将这类不明路径重定向到404页面。例如:
```
RewriteEngine On
RewriteCond %{REQUEST_URI} ^/?about_20/$
RewriteRule ^(.*)$ /404.php [L,R=404]
```
这里假设你的404页面是404.php,你可以根据实际情况修改。这条规则的意思是,当请求的URI(统一资源标识符,也就是网址路径部分)匹配“/?about_20/”时,就将请求重定向到404.php页面,并且返回404状态码。
    - **Nginx服务器**:
        - 在Nginx的配置文件(通常在/etc/nginx/nginx.conf或者网站对应的server块配置文件中)中添加如下规则:
```
location ~ ^/?about_20/$ {
    return 404;
}
```
这就直接告诉Nginx,当遇到匹配“/?about_20/”这样路径的请求时,直接返回404状态码。
2. **程序层面处理**:
    - 如果是基于某种内容管理系统或者自己开发的程序,需要在程序代码中对这类不合理的路径进行识别和处理。
    - 例如,在处理页面请求的代码逻辑里(比如在PHP中可能是在index.php或者相关的路由处理文件中),添加条件判断来检测是否是类似“/?about_20/”这样的异常路径,如果是,就直接输出404页面的内容并设置正确的404状态码。以下是一个简单的PHP示例(假设你的网站是PHP开发的):
```php
<?php
$request_uri = $_SERVER['REQUEST_URI'];
if ($request_uri === '/?about_20/') {
    // 这里假设你的404页面内容是通过一个函数generate_404_page()来生成的
    $404_content = generate_404_page();
    header('HTTP/1.1 404 Not Found');
    echo $404_content;
    exit;
}
// 其他正常的页面处理逻辑继续往下走
?>
```
3. **更新robots.txt文件**:
    - 确保你的robots.txt文件正确设置了禁止搜索引擎抓取这类不合理路径的页面。例如,添加如下规则:
```
User-agent: *
Disallow: /?about_20/
```
这表示对所有的搜索引擎爬虫(User-agent: * 代表所有),禁止它们抓取“/?about_20/”这个路径的页面。这样可以在一定程度上避免搜索引擎继续收录这类不合理的页面,并且也有助于引导搜索引擎重新评估你网站的页面结构,去除已经收录的这类异常页面的索引(不过这个过程可能需要一些时间,因为搜索引擎重新索引也有自己的周期)。

希望这些方法能对你解决这个问题有所帮助呀,你可以根据自己网站的具体情况(比如使用的服务器类型、程序语言等)来选择合适的解决办法。
我要说一句 收起回复

回复

 懒得打字嘛,点击右侧快捷回复【查看最新发布】   【应用商城享更多资源】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

图文热点
创宇盾启航版免费网站防御网站加速服务
投诉/建议联系

discuzaddons@vip.qq.com

未经授权禁止转载,复制和建立镜像,
如有违反,按照公告处理!!!
  • 联系QQ客服
  • 添加微信客服

联系DZ插件网微信客服|最近更新|Archiver|手机版|小黑屋|DZ插件网! ( 鄂ICP备20010621号-1 )|网站地图 知道创宇云防御

您的IP:3.147.51.75,GMT+8, 2024-12-4 16:41 , Processed in 0.264990 second(s), 84 queries , Gzip On, Redis On.

Powered by Discuz! X5.0 Licensed

© 2001-2024 Discuz! Team.

关灯 在本版发帖
扫一扫添加微信客服
QQ客服返回顶部
快速回复 返回顶部 返回列表