教你如何使用robots.txt
->
博客建设也有3个星期了吧!好像还没多少内容,昨天冲冲的把博客提交给了各大所搜引擎.如果你个博客”老鸟”,那么你就别看这个文章了,我想你应该了解如何使用robots.txt,但是像我新作博客,为了更好的优化,做好搜索引擎优化,考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到.这样的话,通过合理地使用robots.txt, 搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。建个robots.txt还是非常必要的.
如何放置Robots.txt文件
robots.txt自身是一个文本文件。它必须位于域名的根目录中并 被命名为”robots.txt”。位于子目录中的 robots.txt 文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.loveblogearn.com/robots.txt 是有效位置,http://www.loveblogearn.com/mysite/robots.txt 则不是。
这里举一个robots.txt的例子:
User-agent: *Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~loveblog/
使用 robots.txt 文件拦截或删除整个网站
要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:
User-agent: *Disallow: /
要只从 Google 中删除您的网站,并只是防止 Googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:
User-agent: GooglebotDisallow: /
每个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的 robots.txt 文件。例如,要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的 robots.txt 文件。
对于 http 协议 (http://yourserver.com/robots.txt):
User-agent: *Allow: /
对于 https 协议 (https://yourserver.com/robots.txt):
User-agent: *Disallow: /
使用 robots.txt 文件拦截或删除网页
您可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt 文件以阻止 Googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:
User-agent: GooglebotDisallow: /private
要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:
User-agent: GooglebotDisallow: /*.gif$
要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:
User-agent: GooglebotDisallow: /*?
尽管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指 向该网站的链接中的定位文字,有可能会出现在 Google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。当然我们还可以使用All in One SEO 插件里的设置,进行一些必要的禁止搜索.
作为网站管理员工具的一部分,Google提供了robots.txt分析工具.它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 Google user-agents(如 Googlebot)提供结果。
以上部分笔者稍作修改,原文查看:如何使用robots.txt 。
Related Posts
Subscribe to LoveBlogEarn Receive (Blogging tips and Marketing news )!
嗯,好像又是一个关于博客的博客啊,呵呵!
貌视博主是个网赚高手啊,至少是个老手,哈哈!
Reply
回复:zhuli
惭愧!惭愧!没那么老 呵呵!
Reply
使用倒是会使用,可是我拿BSP博客没办法用,我就在想貌似YAHOO收录我博客那么少,就是因为robots.txt.
Reply
加上了
Reply
回复: 腻歪
刚去你那转过啦 哈哈
Reply
Reply
还没有用过 不知道对搜索会起到那些作用
Reply
这个我觉得用处还不错,我放了Google和YAHOO的,好像这两个收录的还蛮多的!百度收录我的就好像很少!
博主放了很多不同的广告啊,不知各个收益都怎样?
Reply
yixiu,上面linemaster96发的,如无意外,肯定是垃圾评论~~~
只能说,现在的垃圾评论,越来越像模像样了,就好像垃圾食品、KFC,傻傻分不清楚,哈哈哈。
PS:老积那里的那个,我认为也是垃圾评论,不过那个做得比较真,让我不是很肯定,呵呵。可能,垃圾评论群发器以后可以分析正文和其它评论的语义,然后再组合评论正文并发表,这样大概就可以以假乱真了。唉,万恶的科技啊。
Reply
回复:谢谢老E 我马上把它XX了
昨天我还在群里讨论呢,这个到底是什么 算不算!
Reply