SEO迷信:是<;脚本>;真的很糟糕吗?

SEO迷信:是<;脚本>;真的很糟糕吗?,seo,Seo,我的办公室里有一个SEO团队,他们的格言之一是,在HTML中嵌入大量块是非常糟糕的。作为一名开发人员,这对我来说毫无意义。当然,谷歌搜索工程师是地球上最聪明的人,他们知道如何跳过这些障碍吗 我的直觉是,最小化脚本块是一种迷信,它起源于搜索引擎优化的早期,在当今世界,它毫无意义。有人对此有什么见解吗 根据我们的SEO专家的说法,脚本块(特别是那些在线的,或者在实际内容之前出现的)是非常非常糟糕的,并且使google机器人在处理您的实际内容之前放弃。对我来说,这似乎是胡说八道,但我想看看别人怎么说

我的办公室里有一个SEO团队,他们的格言之一是,在HTML中嵌入大量块是非常糟糕的。作为一名开发人员,这对我来说毫无意义。当然,谷歌搜索工程师是地球上最聪明的人,他们知道如何跳过这些障碍吗
我的直觉是,最小化脚本块是一种迷信,它起源于搜索引擎优化的早期,在当今世界,它毫无意义。有人对此有什么见解吗



根据我们的SEO专家的说法,脚本块(特别是那些在线的,或者在实际内容之前出现的)是非常非常糟糕的,并且使google机器人在处理您的实际内容之前放弃。对我来说,这似乎是胡说八道,但我想看看别人怎么说。

我不知道这其中的SEO方面(因为我永远无法区分曼波jambo和真实交易)。但正如道格拉斯·克罗克福德(Douglas Crockford)在他的一次javascript网络广播中指出的那样,浏览器总是在每个元素上停止解析脚本。因此,如果可能的话,我宁愿交付整个文档并尽可能晚地使用脚本来增强页面。 差不多

<head> --stylesheets-- </head> <body> Lorem ipsum dolor ... ... <script src="theFancyStuff.js"></script> </body> --样式表-- 同侧阴唇 ... ...
我已经很久没有玩过阅读谷歌的茶叶游戏了,但是你的搜索引擎优化专家这么说有几个原因

  • 三、四年前,有一种传统的观点认为,搜索引擎算法会赋予搜索词更多的权重,而搜索词在页面中出现得更早。如果A页和B页上的所有其他内容都相同,如果A页在HTML文件中比B页更早提到小部件,则A页“获胜”。这并不是说谷歌的工程师和博士员工不能跳过这些障碍,而是他们发现了一个有价值的指标。考虑到这一点,很容易看出,除非某个“需要”(见下文#2)的东西出现在文档的头部,否则一个SEO痴迷者会希望它消失

  • 不提供快速解决方案的SEO人员倾向于支持精心设计、验证/一致的HTML/XHTML结构。内联Javascript,尤其是那些不懂网络的软件工程师们喜欢的那种,让这些人(我就是其中之一)感到惊讶。对脚本标记本身的偏见也可能源于Yahoo和其他人在优化Ajax应用程序方面所做的一些工作(在必要时不要让浏览器解析Javascript)。不一定与SEO直接相关,但白帽SEO类型的最佳实践会有所提高

  • 也有可能你们彼此误解了由Javascript生成的内容在SEO界被认为是有争议的。这并不是说谷歌不能“看到”这些内容,而是人们不确定它的存在将如何对页面进行排名,因为很多黑帽SEO游戏都围绕着用Javascript隐藏和显示内容展开


  • 搜索引擎优化充其量是克里姆林宫学,而更糟糕的是,它是黑帽子很久以前赢得的领域。我的免费建议是,不要参与SEO游戏,向你的经理们提出实施SEO相关变更所需时间的估计,然后就这么定了。

    我在一些地方读到,谷歌蜘蛛只索引页面的前100KB。页面顶部20KB的JS意味着以后有20KB的内容是谷歌看不到的,等等

    请注意,我不知道这个事实是否仍然正确,但是当把它与其他迷信/谣言/你在搜索引擎优化论坛的黑暗深处发现的彻头彻尾的骗局结合起来时,它开始有一种奇怪的感觉


    此外,正如其他答案中提到的那样,内联JS对于表示、内容和行为的分离是一件坏事。

    避免内联/内部Javascript有几个原因:

    • HTML表示结构,而不是行为或样式。出于同样的原因,您不应该将CSS直接放在HTML元素中,也不应该将JS放在HTML元素中
    • 如果你的客户端不支持JS,你只会推送很多垃圾。浪费了一点时间
    • 外部JS文件被缓存。这节省了一些钱
    • 您将有一个去中心化的javascript。这就导致了代码重复和随之而来的所有已知问题

    您的SEO专家有点离谱,但我理解您的担忧。这与这种做法是否恰当无关,也与谷歌是否看不起一定数量的脚本标签无关,而与页面权重有关。谷歌在(我认为)150KB之后停止缓存。你的页面包含的内联脚本越多,重要内容不被索引的可能性就越大,因为这些脚本增加了太多的权重。

    我花了一些时间在搜索引擎(不是谷歌)上工作,但从SEO角度看,我从来没有做过太多工作

    无论如何,这里有一些谷歌可以合理地用来惩罚页面的因素,这些因素应该通过包含大量javascript内联代码来增加

    • 总页面大小
    • 页面下载时间(页面大小和下载速度的混合)
    • 搜索词在页面中出现的时间有多早(可能会忽略脚本标记,但这需要更多的处理)

    带有大量内联javascript的脚本标记本身可能被解释为不好的。如果用户经常从站点加载大量页面,那么如果脚本位于单个共享文件中,他们会发现加载速度会快得多。

    我同意所有其他评论,但如果一个页面包含的不仅仅是
    围绕内容,你要相信谷歌会正确解释加价,这总是一件冒险的事情。内容为王,如果谷歌不能完美地阅读内容,那么这只是谷歌不向你展示它的另一个原因