网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

不知道robots文件是何物何作用的请看之前文章:经常被忽视的robots原来还有这么多道道!

网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

这个解决方案的用途:

CDN站缓存站站群地域子站以及其他各种相关的奇葩问题需要进行不同域名分别设置robots文件

网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

解决思路:

这里用到了apache的.htaccess

(科普:htaccess文件是Apache服务器中的一个配置文件,它负责相关目录下的网页配置。通过htaccess文件,可以帮我们实现:网页301重定向、自定义404错误页面、改变文件扩展名、允许/阻止特定的用户或者目录的访问、禁止目录列表、配置默认文档等功能。)

解决流程:

1.打开.htaccess,添加上红色框框中的规则,保存

网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

RewriteRule ^robots.txt$ /robots_%{HTTP_HOST}.txt [L]

2.设置不同的robots文件

然后在网站根目录放置robots_域名.txt这样的文件即可,例如:

网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

3.输入自己两个网址查看robots文件

网站分身各不同:同一个空间和代码,不同域名设置不同robots文件

PS:有些虚拟空间没有.htaccess可以在桌面新建一个TXT文档,重命名成.htaccess即可

展开阅读全文

页面更新:2024-04-27

标签:域名   文件   框框   奇葩   根目录   缓存   地域   请看   虚拟空间   思路   用途   流程   代码   文档   网页   目录   游戏   空间   网站

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top