网站优化
SEO优化、网站关键词排名优化
网站建设成功之后,若是网站的内容质量都不错的情况下,就会有搜索引擎蜘蛛来抓取,那么如果要拒绝被抓取要怎么做呢?
拒绝搜索引擎收录网站的方法:可以在head标签中添加内容,禁止搜索引擎抓取网站并显示网页快照。
一个新网站建成后,只要搜索引擎蜘蛛抓取并且网站内容不是很差,搜索引擎很可能会收录我们的网站。如果因为某种原因不想让搜索引擎收录网站,怎么操作?以下这篇文章给大家讲解一下。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。当spider访问一个网站时,他会首先检查网站的根域下是否有一个纯文本文件叫做robots.txt,用于指定spider在您网站上的抓取范围。你可以在你的网站上创建一个robots.txt,并在文件中声明你不想被搜索引擎收录的部分或指定搜索引擎只收录特定的部分。
请注意,只有当您的网站包含不想被搜索引擎收录的内容时,您才需要使用robots.txt文件。如果你想让搜索引擎包含网站上的所有内容,请不要建立robots.txt文件。
user-agent:*
Disallow:/
使用上述代码,就可以告诉搜索引擎不要抓取收录本网站,注意谨慎使用上述代码:这将禁止所有搜索引擎访问网站的任何部分。
User-agent:Baiduspider。
Disallow:/
User-agent:Googlebot。
Disallow:/
在网站首页代码之间添加以下代码,可以禁止搜索引擎抓取网站并显示网页快照。
在网站首页代码之间添加以下代码,可以禁止百度搜索引擎抓取网站并显示网页快照。
在网站首页代码之间添加以下代码,可以禁止谷歌搜索引擎抓取网站并显示网页快照。
以上就是关于拒绝搜索引擎收录网站的方法的详细内容介绍了,有疑问的同学可以联系我们“seo屋”讨论咨询。
关注“SEO屋”公众号,回复关键字“我要干货”,获取验证码。
发表评论