网站的重要目录对百度进行了封禁原因分析

烘焙 2020年08月06日

很多朋友最近可能发现,百度站长平台无缘无故提示站的重要目录对百度进行了封禁。

如图:

很多新手乍一看到这样一个官方提醒,就开始着急,是不是站什么地方出了问题。当然大家首先想到的是站的t文件是否真的被恶意修改了。

一些平时小心翼翼的新手站长可能就会在群里,或者SEO论坛里各种求助,希望能够有人解决这个问题,而给予答复一般都是说是去检查t文件,但是没有检查出个所以然,然后就听信某些人把t文件删掉了!(这是本人在某群里亲眼所见,当时我就呵呵了)

事实+

在2014年年初左右,其实有很多站长都收到了这样的百度提醒,如上图,我的博客在两个月里被提醒了两次。既然这么多站都有提示robots文件有问题,那么一定是百度官方算法的调整而引起的波动,而不是这么多站robots文件同时出现了问题。

其实百度算法在去年年底,进行了不少更新,百度站长平台也给予了相应提示,站长平台出现这样的提醒大家也要保持淡定,我们通常将这样的现象称之为百度抽风。

其实作为站长应该了解自己的站,而不是别人说什么就是什么,就拿robots文件来说,既然站robots文件本身并没有问题,而且百度官方也没有通知robots算法的更新,那么我们就应该对此情况有个大体的认识,而不是盲目的去改这里改那里,就算要改,那也要找到问题所在。

解决方案

既然这种情况是属于百度算法更新而引起的误判,那么我们也不必太在意,只要我们的robots文件确实没有封禁百度即可!

如果非要干涉下,那么我们可以手动更新下robots文件,让百度重新索引我们的robots。

方法:打开百度站长平台找到站分析,如图输入址,点击检测

我们可以看到我们的robots文件内容与百度更新时间,一般百度有了封禁提示后,百度更新时间都是无记录的,其实这也是没有关系的,在这里直接点击更新,过几天即可在这里看到百度更新时间。

科普:

其实这里的robots更新功能根本目的是:当我们修改了robots文件后,希望百度蜘蛛能够及时了解站路径索引的变化,就使用这里的更新功能,当robots文件没有发生变化时,更不更新是无所谓的。

新手告诫:

robots文件是站SEO工作中的很重要的一个方面,一个站应当要适当的屏蔽不需要百度蜘蛛爬取的路径,而不是为了能够让蜘蛛全方位的爬取而删掉robots文件,这样做是很明显不利于SEO的。

原创文章来源于合肥seo:,转载请注明,万分感谢!

三明治疗白癜风多少钱
神经内科
百色治疗白癜风费用
友情链接: 最全的天长美食攻略