首页
行业词库
行业站点
软文助手
SEO学院
站长工具
HTTP状态查询
友链检测
死链检测
Sitemap生成
Whois查询
模拟百度抓取
首页
行业词库
行业站点
软文助手
模板文章
文章助手
文章改写
SEO学院
最新资讯
SEO教程
论坛
站长工具
HTTP状态查询
友链检测
死链检测
Sitemap生成
Whois查询
模拟百度抓取
文章接口
查看全部
登录/注册
首页
>
SEO学院
>
论坛
>
是否应该屏蔽蜘蛛抓取JS和CSS文件
是否应该屏蔽蜘蛛抓取JS和CSS文件
2019-03-22 14:00:14
浏览量:361
很多网站在查看日志的时候, 会发现JS、CSS文件被蜘蛛抓取的频率特别高, 于是有人便考虑在robots.txt屏蔽蜘蛛抓取js和css文件, 节省蜘蛛时间给其他页面。 国平老师认为,屏蔽了这种文件不会对网站有不利影响,相反可以促进其他页面的收录; 但同时很多人认为屏蔽了这两个文件容易被搜索引擎判断为网站作弊。 元芳们,你们怎么看?
分享到:
13人参与回答
程大虾
搜索引擎能抓取的页面量~远远大于我们的网站数据量,抓不抓 css JS 影响没多大
97
2019-03-22 14:00:18
陈福山
持续创业者
现在搜索引擎已经可以辨别 JS CSS文件,平不屏蔽无关紧要了。 只要你的网站压力不要限制,服务器不是太差。 跟你屏不屏蔽,没关系啊 我的网站检测JS N个 收录照常,快照照常 更新
84
2019-03-22 14:00:18
胡小易
SEO经验3年
这要看网页数量,如果网页数量小到足够被任何蜘蛛任意抓取,那么就没这个必要。 反之,如果网页数量大到蜘蛛抓取不了,那么就需要Nofollow掉,Robots掉一些东西
22
2019-03-22 14:00:18
陈超
韩连生物seo负责人,专注医疗行业,擅长站内优化。
个人认为: 1、未来css文件会成为搜索引擎判断一个页面的参考因素; 2、也许现在搜索引擎已经能够简单的利用css文件理解页面结构了。
95
2019-03-22 14:00:18
小龙
游周边旅游网SEO经理,SEO经验4年,喜好研究seo细节
假设这句话成立:“蜘蛛抓取一个网站的时间是一定的,限制了某文件被抓取,则它又更多时间去抓取别的网页” 对于大型网站来讲,屏蔽CSS和JS文件,还是有必要的。 对于中小型网站来讲,完全没有必要。
99
2019-03-22 14:00:18
吴星
SEO从业者,正在让自己忘记SEO
JS, css是在网页头部里设置 Cache-Control,不需要在Robots.txt里添加。
1
2019-03-22 14:00:18
刘文作
文艺极客QQ群 255363059
你先尝试屏蔽一部分,看看网站的整体情况和日志分析。 不过我建议等百度12月份调整结束了再试。
76
2019-03-22 14:00:18
虞冰焱
火哥-SEO经理,研究竞价实战,想法很多实现没有.
屏蔽页面,对于搜索引擎来说是非常正常的事情,不然也不会出现Robots.txt这样的用户制定抓取规则的存在
94
2019-03-22 14:00:18
汪周围
adSage SEO经理
就以往的操作过程而言,我个人没有屏蔽过JS和css文件。 关乎网站性能方面,只是建议将js和css分别整合,css放置在头部,js放在尾部,防止网站载入的时候出现错乱和阻塞。 目前好像没有哪个方面的资料说一定要屏蔽js和css。 大概来讲,遵循两点就可以了: 1:css文件整合,并通过压缩减小其体积,并放置在头部; 2:js文件整合,并通过压缩减小其体积,放置在尾部; 其他代码区域尽量不要出现单独的css和js代码就是比较符合标准的了。
13
2019-03-22 14:00:18
冯涵
【之首】凡所答,对正规手法操作的企业站比较应验。
经过试验和跟踪数据表明: 1>被屏蔽掉的JS/css文件依然会被baidu和google大量crawl 2>屏蔽后跟踪观察其他page type 蜘蛛crawl量,发现并未增加 3>如果网站大部分js/css文件里包含较多URL可以不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的link 4>如果网站大部分js/css文件里基本上都是代码之类的,屏蔽也可,没发现明显的好处也没发现坏处
87
2019-03-22 14:00:18
王丹
3年医疗行业SEO优化!准备今年转到教育或B2C行业!
我是屏蔽了 还有夫唯老师发现你回答好多问题都很“谨慎” 你回答时候可以加上一些你自己或者你朋友正常的操作方法啊 我记得以前听夫唯老师上课说是要屏蔽的
45
2019-03-22 14:00:18
张立博
搜问69号会员 电子商务从业者
我觉得没必要屏蔽,因为搜索引擎会知道哪些是JS、CSS,哪些是网页文件。抓取js和css的蜘蛛应该不会影响网页的抓取频率。 至于搜索引擎抓取js和css,可能跟快照有关,因为现在网站的页面大多是用div+css来建设的,如果没有css的页面会惨不忍睹的。 所以不排除搜索引擎在试图解释JS和CSS文件,来丰富网页的内容,让搜索更精确。 让搜索结果更准确,这个是个人猜测,也许反而是真正的原因。
28
2019-03-22 14:00:18
夫唯
搜外网创始人,专注SEO和小程序
以下这个说法值得商榷下: “蜘蛛抓取一个网站的时间是一定的,限制了某文件被抓取,则它又更多时间去抓取别的网页” 如果不成立,则完全没必要屏蔽CSS和JS了。 如果成立,那要屏蔽的就不止CSS和JS了,很多没实质意义的文件都值得屏蔽。 所以,以上那个论点,值得更多探讨下。
98
2019-03-22 14:00:18
最新问题
GA上网站本身成为引荐流量怎么解决?
链接来源网站不可访问怎么处理?
网络公司一般用什么样erp系统
发句牢骚,最近做了一个公司的新站,竟然不知道怎么开始做优化了、囧哇~
网络公司一般用什么样的客户管理系统
wordpres如何删除虚拟 robots
提交给百度sitemap.xml好还是rrs.xml好
新年百度给我的信心
删 帖
有一天你赖以生存的东西无法让你生存了,你会怎么办?
最热问题
关于蜘蛛抓取及反馈问题
wordpres如何删除虚拟 robots
做推广快一年了,有没有在年前提加工资的事情?
百度新版首页更给力
找不到网站日志... log文件夹里没有
为什么百度蜘蛛抓取我网页上没有的文件。
各位seoer。上班到啥时候,都放假了吗?
8月被降权老站还有机会站起来吗
医疗外推突破瓶颈的推广方式和方向有哪些?
百度外链算法更新后,外链是否还有作用?
提示信息
意
见
反
馈
联系电话:
1585150508*
QQ交谈:
小编
站长微信:
站长邮箱:
service@qingjiuzhubei.com