外链论坛

 找回密码
 立即注册
搜索
查看: 59|回复: 2

2016网络营销学习第六天:robots.txt的用法及设置

[复制链接]

2983

主题

3万

回帖

9910万

积分

论坛元老

Rank: 8Rank: 8

积分
99109240
发表于 2024-8-31 19:06:09 | 显示全部楼层 |阅读模式

2016EME学习第六天:robots.txt的用法及设置

一.什么是robots文件

robots.txt:存放在空间根目录;限制搜索引擎对网站内容抓取的协议文件;倘若根目录下该文件,暗示网站所有网页都准许被抓取;

二.robots文件的格式和内容

1.robots是txt格式的文件,安置在网站的根目录

2.robots文件的写法

User-agent:蜘蛛名叫作(*表率所有蜘蛛)

Disallow:不准许被抓取的文件路径(不写域名,/暗示根目录)

例1:

User-agent: *

Disallow:

暗示网站所有内容都准许抓取;跟robots.txt是同样

例2:

User-agent: Baiduspider

Disallow: /

暗示网站所有内容不准许被百度抓取;

例3:

User-agent: *

Disallow: /?p=*

暗示网站中满足 网址/?p=参数的URL都不被抓取,例如网址/?p=1;网址/?p=2;网址/?p=3;

三.robots在seo中的功效

1.死链接提交,倘若网站中显现了死链接,是对咱们网站的SEO有很强影响的,此时能够利用robots文件,禁止抓取这些死链接,而后提交到百度站长的死链提交工具,从而处理这个问题。

2.robots.txt放网站xml地图:Sitemap:url/sitemap.xml,告诉蜘蛛咱们的网站地图在哪里,提高搜索引擎的抓取效率

3.禁止搜索引擎抓取咱们不想被抓取的文件

倘若对你有一点点帮忙,请百度钟震讲网络营销长沙网络营销师.!大恩不言谢,自己真诚建站

原文位置

http://www.sheiyouqian.com/eme/1188.html




上一篇:举荐把这部小说改编成电影
下一篇:免费下载电子书:营销的16个关键词(azw3, epub, mobi)
回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-9-9 19:37:22 | 显示全部楼层
对于这个问题,我有不同的看法...
回复

使用道具 举报

3083

主题

3万

回帖

9909万

积分

论坛元老

Rank: 8Rank: 8

积分
99098788
发表于 5 天前 | 显示全部楼层
我深受你的启发,你的话语是我前进的动力。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|外链论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-18 14:48 , Processed in 0.136953 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.