Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance 性能方面,为什么facebook不一次加载所有JS文件?_Performance_Seo - Fatal编程技术网

Performance 性能方面,为什么facebook不一次加载所有JS文件?

Performance 性能方面,为什么facebook不一次加载所有JS文件?,performance,seo,Performance,Seo,我在登录后查看了facebook上的html代码,他们似乎对JS文件做了很多请求(根据firebug,最多20个)。 我在这里找到了我最初想知道的内容,但这个问题现在已经很老了,它链接到的博客帖子是从2010年开始的,facebook似乎并不关心SEO 因此,虽然我知道facebook需要加载许多JS和CSS文件(而不是一个JS和一个CSS文件),但我的问题是更通用的网站和网络爬虫的状态。 我们是否应该担心这些技术(通过ajax加载主要内容)会影响网络爬虫(googlebot和friends)

我在登录后查看了facebook上的html代码,他们似乎对JS文件做了很多请求(根据firebug,最多20个)。 我在这里找到了我最初想知道的内容,但这个问题现在已经很老了,它链接到的博客帖子是从2010年开始的,facebook似乎并不关心SEO

因此,虽然我知道facebook需要加载许多JS和CSS文件(而不是一个JS和一个CSS文件),但我的问题是更通用的网站和网络爬虫的状态。 我们是否应该担心这些技术(通过ajax加载主要内容)会影响网络爬虫(googlebot和friends)

我想提高性能,加载“以后需要”内容(text/js/css)似乎是个好主意,但如果爬虫程序无法使用它(当然是内容),那就不行了

谢谢

虽然Googlebot非常擅长理解HTML链接的结构,但在使用JavaScript进行导航的网站上,它可能很难找到自己的方法。我们正在努力更好地理解JavaScript,但创建一个可被Google和其他搜索引擎抓取的网站的最佳选择是提供指向内容的HTML链接

googlebot和大多数搜索引擎爬虫不执行javascript代码,这是因为加载javascript和css意味着页面呈现,这会提高性能,任何蜘蛛都无法忍受

然而,爬行器可以查看js代码以检查特定的模式(例如使用blackhat技术)

最好(但很难)的解决方案是为无法执行javascript的代理提供基本内容(主页内容必须可用),并为现代浏览器提供具有更多功能的优化内容