为什么说要给我们的网站制作一个robots文件?一般我制作robots文件都是在于网站建设好之后就开始制作的一个过程,robots文件与sitemap网站地图同时制作,然而上传网站根目录,最后提交给百度。
robots文件到底应该怎么来做?首先我们新建一个命名为“robots”的文本文件,robots文件与搜索引擎的关系就是搜索引擎和网站之间的一个协议。这个协议需要写下这样的一个字符,比如:这个User-agent:*则表示和所有搜索引擎协议适用,允许所有的搜索引擎;而Disallow:/则表示禁止搜索引擎过来我们的网站抓取收录,另一个Allow:/则表示允许的意思。
如果只是禁止某一个搜索引擎抓取收录网站的某一个目录,比如我们要禁止百度抓取来抓取收录我们网站的动态链接,则可以这样书写:Disallow: /*?*。
同时除了要设置robots协议之外,还可以在网页代码里面设置。在网页<head></head>之间加入<meta name=”robots” content=”noarchive”>代码。表示紧致所有搜索引擎抓取网站和显示快照。如果要针对某一个搜索引擎禁止抓取,在网页<head></head>之间加入<metaname=”baidspider” content=”noarchive”>代码,表示禁止百度抓取,<meta name=”googlebot” content=”noarchive”>表示禁止谷歌抓取,其他的搜索引擎一样原理。
除了以上说的,还有一个更简单的操作方法就是通过一款工具同时来实现制作robots文件和网站地图Sitemap,但用来用去觉得比较好的还是爱站seo工具,真心不错,简单易懂,容易上手,你们可以去试试看。要做好seo优化,是必须要做的。