首页 关于我们 成功案例 网站建设 电商设计 新闻中心 联系方式
QQ联系
电话联系
手机联系
QQ联系
电话联系
手机联系

网站优化robots.txt文件使用技巧

发布时间:2019-06-19 18:07
发布者:嘉铭物联
浏览次数:
众所周知,在网站上使用robots.txt文件可以让搜索引擎保持现状。蜘蛛& rdquo根据文件中确定的范围,您不会访问不利于网站排名的内容。那么robots.txt文件是如何工作的呢?我们如何使用robots.txt文件? I . robots . txt文件的工作原理 1.robots.txt是一个纯文本文件。通过在该文件中声明机器人不想访问的网站部分,网站的部分或全部内容可以从搜索引擎中排除,或者指定的搜索引擎只能包括指定的内容。 2.当一个搜索引擎。蜘蛛& rdquo当访问一个网站时,它将首先检查robots.txt是否存在于该网站的根目录下,如果存在,搜索引擎& ldquo蜘蛛& rdquo访问范围将根据文件内容确定。如果文件不存在,那么搜索引擎& ldquo蜘蛛& rdquo沿着链接抓住。 3.robots.txt必须放在网站的根目录下,文件名必须全部小写。 第二,robots.txt文件设置 1 .用户代理设置 在“robots.txt。如果文件中有多个用户代理记录,则表明多个机器人将受到“robots.txt”的影响。对于此文件,必须至少有一条用户代理记录。如果该项的值设置为*,它对“robots.txt”中的任何机器人都有效。在文件“用户代理:*”中这样的记录只能有一个。 2.设置为2。不允许 该值可以是完整路径,也可以是路径的非空前缀,并且机器人不会访问以不允许项的值开头的url。 3.3 .允许的设置 类似于不允许项,该值可以是完整路径或路径前缀。机器人允许访问以允许项的值开始的url。 第三,robots.txt文件使用技巧 1.每当用户试图访问不存在的网址时,服务器将在日志中记录404个错误(找不到文件)。每次搜索引擎。蜘蛛& rdquo要查找不存在的robots.txt文件,服务器还会在日志中记录404错误,因此您应该向网站添加robots.txt。 2.网站管理员必须让spider程序远离某些服务器上的目录& mdash& mdash确保服务器性能。 3.如果网站是动态网页,则动态网页会创建静态副本,以便搜索蜘蛛更容易捕获。然后有必要在robots.txt文件中设置,以避免动态网页被蜘蛛索引,从而确保这些网页不会被视为包含重复内容。 4.robots.txt文件也可以直接包含指向sitemap文件的链接。 5.合理使用robots.txt文件也可以避免访问过程中的错误。例如,搜索者不能直接进入购物车页面。因为没有理由包含购物车,所以您可以在robots.txt文件中设置它们,以防止搜索者直接进入购物车页面。