欢迎您访问思政资源库!
中唐方德官网 | 思政直播
什么是robots协议

什么是robots协议

40
0
展开
下载
收藏
版权说明

发布日期:2023-01-26

true

来源:百度百科

简介:
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。

适用专业(1)

    本科(1):

  • 数据科学与大数据技术
  • 展开

适用课程(1)

  • 程序设计基础(Python语言)
  • 展开
版权说明及权利通知
加入资源库VIP 本文免费下载
2万VIP文档下载
海量文档免费下载
付费资源7折起
专属客服服务
仅需0.6元/天
开通VIP
继续阅读
VIP用户可继续阅读

相关思政元素

收藏
版权说明
下载
VIP专享文档
付费资源7折起
专属客服服务
仅需0.6元/天
立即开通