换链神器
Robots
  • 站内优化第四课:Robots.txt优化部分

    前面三节课,分别讲解了基础优化、代码优化、网址优化,接下今天会对网站Robots.txt优化进行一个详细的说明,希望同学们能够学习使用,并且能够灵活运行Robots.txt优化技巧。 发布时间:2016/12/22 标签: Robots 评论:3 人浏览:1989 次
  • robots文件的概念、特点和写法_二毛SEO教程(第四课)

    robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页/文件夹可以收录,哪些不允许收录(可以爬行)。 发布时间:2016/2/15 标签: robots 评论:0 人浏览:3353 次
1
Copyright 2014 - 2018.换链神器&版权所有 湘公网安备 43060202000403号湘ICP备12009221号-7