3

登录后我正在查看 facebook 中的 html 代码,他们似乎对 JS 文件做了很多请求(根据萤火虫最多 20 个)。我在这里发现了这个问题,它几乎总结了我最初想知道的内容,但是这个问题现在已经相当老了,它链接到的博客文章是 2010 年的,Facebook 似乎并不关心 SEO。

所以,虽然我知道 facebook 需要加载许多 JS 和 CSS 文件(而不是一个 JS 和一个 CSS 文件),但我的问题是针对更通用的网站和网络爬虫的状态。我们是否应该担心这些技术(通过 ajax 加载主要内容)会影响网络爬虫(googlebot 和朋友)?

我想提高性能并加载“以后需要”内容(text/js/css)似乎是个好主意,但如果爬虫无法使用(当然是内容),那就不行了。

谢谢!

4

1 回答 1

0

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=81766

虽然 Googlebot 擅长理解 HTML 链接的结构,但它可能很难在使用 JavaScript 进行导航的网站中找到自己的方式。我们正在努力更好地理解 JavaScript,但创建一个可供 Google 和其他搜索引擎抓取的网站的最佳选择是提供指向您的内容的 HTML 链接。

googlebot 和大多数搜索引擎爬虫不执行 javascript 代码,这是因为加载 javascript 和 css 意味着页面渲染的热性能,没有蜘蛛可以忍受。

然而,蜘蛛可以偷看 js 代码以检查特定模式(例如正在使用黑帽技术)。

最好(但很难)的解决方案是为无法执行 javascript 的代理提供基本内容(主页内容必须可用),以及为现代浏览器提供更多功能的优化

于 2013-03-18T14:47:59.027 回答