robots文件:Robots.txt文件是什么文件

.什么是robots.txt文件? 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息robots文件。spider在访 问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文 本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该 网站中不想被robot访问的部分或者指定搜索引擎只收录特定的部分。 请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用 robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立 robots.txt文件或者创建一个内容为空的robots.txt文件。 2.robots.txt文件放在哪里? robots.txt文件应该放在网站根目录下。举例来说,当spider访问一个网站(比如 }