Optimization 如何处理网页中的大量图像?

Optimization 如何处理网页中的大量图像?,optimization,image-processing,Optimization,Image Processing,所以我制作了一个网站,我把它展示给了一个网络开发者。我想让我的网站成为一个“视觉体验”,每个页面都至少有30个50x50的缩略图,一个120个x100的图像,还有几个缩略图。它将是一个会员专页,这样你就可以图像,更多的注册用户,我们将有更多的图像。事实上,每个成员都可以拥有自己的相册,这将是另一组图像 所以他真的很担心我的网站不会被优化,他说除非我投资一台非常昂贵的服务器,否则图像无法立即加载。用户必须等待几秒钟才能加载图像 所以我想知道有什么方法可以解决这个问题?当我看到像facebook.c

所以我制作了一个网站,我把它展示给了一个网络开发者。我想让我的网站成为一个“视觉体验”,每个页面都至少有30个50x50的缩略图,一个120个x100的图像,还有几个缩略图。它将是一个会员专页,这样你就可以图像,更多的注册用户,我们将有更多的图像。事实上,每个成员都可以拥有自己的相册,这将是另一组图像

所以他真的很担心我的网站不会被优化,他说除非我投资一台非常昂贵的服务器,否则图像无法立即加载。用户必须等待几秒钟才能加载图像

所以我想知道有什么方法可以解决这个问题?当我看到像facebook.com这样的网站图片的src属性时,它会出现在像这样的地方。这是一种将所有图像存储在不同服务器/网站上的技术吗

因此,基本上,我将有一个非常图像密集的网站,我想知道什么是最好的方式,以确保用户体验是尽可能顺利,而不是让用户等待个别图像加载。谢谢

  • 为图像使用多个域,因为浏览器对每个域的传出连接有限制(即:2)
  • 使用到期标头可避免多次下载同一映像
  • 在服务器上生成缩略图(不要在浏览器中调整图像大小),以最小化所需带宽
  • 投资Akamai
  • 为图像使用多个域,因为浏览器对每个域的传出连接有限制(即:2)
  • 使用到期标头可避免多次下载同一映像
  • 在服务器上生成缩略图(不要在浏览器中调整图像大小),以最小化所需带宽
  • 投资Akamai

  • 有这样的服务,称为CDN。一些大型网站有自己的网站。

    有专门的服务,称为CDN。一些大型网站有自己的网站。

    基本上,解决这个问题的方法是使用类似Akamai的。本质上,您只是在缓存映像,以便在不用于处理请求的服务器上更快地访问

    基本上,该问题的解决方案是使用类似Akamai的解决方案。本质上,您只是在缓存映像,以便在不用于处理请求的服务器上更快地访问

    正如其他答案所建议的,除了使用CDN外,还应尽量避免或延迟加载不需要加载的图像。示例:进行随机谷歌图像搜索并滚动搜索结果。查看如何仅在向下滚动时加载图像?这似乎是一个很好的选择。

    除了使用CDN,正如其他答案所建议的那样,还应尽量避免或延迟加载不需要加载的图像。示例:进行随机谷歌图像搜索并滚动搜索结果。查看如何仅在向下滚动时加载图像?这似乎是一个很好的选择。

    你也可以在Apache服务器前面使用nginx作为代理服务器。

    你也可以在Apache服务器前面使用nginx作为代理服务器。

    你需要研究架构,了解它们是如何工作的,区别是什么,等等。facebook不是在一台服务器上托管所有内容,这就是行不通。如果您真的希望拥有所有这些图像,并且数量将根据用户进行扩展,那么您需要研究内容服务器和缓存技术。这不是一个“什么是快速修复”类型的问题。思考需要深入到架构中,否则根本无法扩展。看看其他人是如何做到这一点的,例如imgur.com在他们的博客中发布了一些见解。Github也发布了一些东西,如果我没记错的话。你需要研究一下架构,了解它们是如何工作的,它们之间的区别是什么,等等。facebook并不是在一台服务器上托管所有东西,它只是不起作用。如果您真的希望拥有所有这些图像,并且数量将根据用户进行扩展,那么您需要研究内容服务器和缓存技术。这不是一个“什么是快速修复”类型的问题。思考需要深入到架构中,否则根本无法扩展。看看其他人是如何做到这一点的,例如imgur.com在他们的博客中发布了一些见解。Github也发布了一些东西,如果我没记错的话。