Performance 性能方面,为什么facebook不一次加载所有JS文件?
我在登录后查看了facebook上的html代码,他们似乎对JS文件做了很多请求(根据firebug,最多20个)。 我在这里找到了我最初想知道的内容,但这个问题现在已经很老了,它链接到的博客帖子是从2010年开始的,facebook似乎并不关心SEO 因此,虽然我知道facebook需要加载许多JS和CSS文件(而不是一个JS和一个CSS文件),但我的问题是更通用的网站和网络爬虫的状态。 我们是否应该担心这些技术(通过ajax加载主要内容)会影响网络爬虫(googlebot和friends) 我想提高性能,加载“以后需要”内容(text/js/css)似乎是个好主意,但如果爬虫程序无法使用它(当然是内容),那就不行了 谢谢 虽然Googlebot非常擅长理解HTML链接的结构,但在使用JavaScript进行导航的网站上,它可能很难找到自己的方法。我们正在努力更好地理解JavaScript,但创建一个可被Google和其他搜索引擎抓取的网站的最佳选择是提供指向内容的HTML链接 googlebot和大多数搜索引擎爬虫不执行javascript代码,这是因为加载javascript和css意味着页面呈现,这会提高性能,任何蜘蛛都无法忍受 然而,爬行器可以查看js代码以检查特定的模式(例如使用blackhat技术) 最好(但很难)的解决方案是为无法执行javascript的代理提供基本内容(主页内容必须可用),并为现代浏览器提供具有更多功能的优化内容Performance 性能方面,为什么facebook不一次加载所有JS文件?,performance,seo,Performance,Seo,我在登录后查看了facebook上的html代码,他们似乎对JS文件做了很多请求(根据firebug,最多20个)。 我在这里找到了我最初想知道的内容,但这个问题现在已经很老了,它链接到的博客帖子是从2010年开始的,facebook似乎并不关心SEO 因此,虽然我知道facebook需要加载许多JS和CSS文件(而不是一个JS和一个CSS文件),但我的问题是更通用的网站和网络爬虫的状态。 我们是否应该担心这些技术(通过ajax加载主要内容)会影响网络爬虫(googlebot和friends)