Sitemap自动生成插件

1:创建robots.txt文件这个文件是给搜索引擎看的方便收录

Robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。
<font color=red>Disallow:</font>
用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。
<font color=red>Sitemap:</font>
这个里面填写的是域名加文件名如下面模板


# robots.txt generated at https://tool.chinaz.com/robots/ 
User-agent: *
Disallow: 
Disallow: /admin/
Sitemap: https://www.kiss69224.vip/sitemap.xml

如下图所示没有前面的|符号
QQ截图20190417142044.png

2:安装插件usr/plugins 放入这个文件夹不要更改文件夹名称,放入后启用插件,然后打开浏览器输入域名+sitemap.xml

正常出现如下图所示便安装正确
QQ截图20190417141629.png

最后修改:2019 年 04 月 17 日 03 : 00 PM
如果觉得我的文章对你有用,请随意赞赏

发表评论