人亦已歌 发表于 2023-6-24 21:08:19

网站robots文件没做好带来的影响不可小视

<p>
        网站优化过程非常容易忽视的一个就是robots文件,因为如果网站彻底不做robots文件好像也没有多大影响,但不做好这个文件,引起的问题可不能小视。
</p>
<p>
        什么是robots文件?简单的说就是告诉搜索引擎哪些是你能抓取的哪些是你不能碰的,哪个蜘蛛可以进来哪个不能进来,做好了robots文件有以下几点好处:节省服务器资源,避免不必要的抓取;像有客户资料的私密信息不会泄露;让蜘蛛爬取的更加顺利方便,增加搜索引擎的友好度等等。
</p>
<p>
        一、robots文件看法
</p>
<p>
        想要看别人网站的robots文件,直接在网址栏输入:http://www.域名.com/robots.txt,比如你想看石总seo徐三博客的robots文件就可以输入:https://www.huanp.com/robots.txt
</p>
<p style="text-align:center;">
        <img alt="网站robots文件没做好带来的影响不可小视" src="/wp-content/uploads/2019/10/20191014161814_31667.png" title="?tle插图?m" />
</p>
<p>
        二、robots文件写法
</p>
<p>
        这个在网上有大量的教程,本人的表达能力也比较欠佳,就不再赘述了。建议还是参照百度站长平台的资讯更加简单易懂一点。
</p>
<p>
        三、如果robots文件出现了问题导致网站数据出现严重问题怎么办
</p>
<p>
        robots文件对于稍稍有点规模的网站都是不可或缺的,很多不必要的搜索引擎的蜘蛛那就没有必要让它们爬取来占取资源,这时靠robots封禁,如果网站出现了严重的数据波动,比如收录索引全部掉完,排名全部下降,若网站没有出现其他问题正常优化的情况下,首先就要检查robots文件,这时也不要慌,笔者整理了方法,供大家参考使用。
</p>
<p>
        1.修改Robots封禁为允许,然后到百度站长后台检测并更新Robots。
</p>
<p>
        2.在百度站长后台抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点。
</p>
<p>
        3.在百度站长后台抓取频次,申请抓取频次上调。
</p>
<p>
        4.百度反馈中心,反馈是因为误操作导致了这种情况的发生。
</p>
<p>
        5.百度站长后台链接提交处,设置数据主动推送(实时)。
</p>
<p>
        6.更新sitemap网站地图,重新提交百度,每天手工提交一次。
</p>
<p>
        以上处理完,接下来就是等待了,基本5天内就能回到正常状态!在最后笔者还是建议大家要好好做好网站的robots文件,因为好处是有目共睹的,放在根目录下就可以了,当然,还可以在robots文件中放上网站的sitemap,对蜘蛛的爬取很有好处。
</p>
页: [1]
查看完整版本: 网站robots文件没做好带来的影响不可小视