Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Browser 具有最大页面长度的浏览器限制_Browser - Fatal编程技术网

Browser 具有最大页面长度的浏览器限制

Browser 具有最大页面长度的浏览器限制,browser,Browser,我们正在管理数据源中的html内容,并使用asp.net C#直接在网页上编写 我们现在面临的问题是: 在页面上不显示完整的内容,但当我们检查页面源代码并将其复制/粘贴到静态html页面时,所有内容都将显示 是否存在与网页最大长度相关的浏览器限制 我在谷歌上搜索了一下,发现一个网页的大小限制应该是10-30KB,但在同一个项目中,我们有长度高达55KB的网页 有人能帮我吗?安装firefox和firebug,并尝试检查可能影响源代码的任何因素。除非您正在更改C#中的某些奇怪内容,否则不应将其切断

我们正在管理数据源中的html内容,并使用asp.net C#直接在网页上编写

我们现在面临的问题是: 在页面上不显示完整的内容,但当我们检查页面源代码并将其复制/粘贴到静态html页面时,所有内容都将显示

是否存在与网页最大长度相关的浏览器限制

我在谷歌上搜索了一下,发现一个网页的大小限制应该是10-30KB,但在同一个项目中,我们有长度高达55KB的网页


有人能帮我吗?

安装firefox和firebug,并尝试检查可能影响源代码的任何因素。除非您正在更改C#中的某些奇怪内容,否则不应将其切断。

限制(如果仅存在)大于50KB:

$ wget --quiet "http://www.cnn.com" -O- | wc -c
99863

我不相信页面大小有任何特定的常量限制。我想这取决于web浏览器进程可以分配的内存大小。

我最近对超大文本文件的浏览器加载时间进行了基准测试。以下是一些数据:

IE——死亡约35兆次
Firefox——在60兆左右死亡
Safari——死亡约60毫克
铬——在50兆左右死亡

同样,这是基本(如果很大)英文文本文件的简单浏览器加载时间。一个奇怪的注意事项是,Firefox在变得无响应之前似乎可以处理接近60兆的数据,但它只在视口中显示55.1兆的数据。(不过,我可以按住ctrl-a键将所有60兆数据放到剪贴板上。)

当然,你的里程数会有所不同,这都与网络延迟有关,如果你说的是下载图片等,我们可能会看到巨大的差异。这只是一个非常大的英文文本文件。

浏览器不会知道静态html页面和服务器上C代码呈现的页面之间的区别。你确定你没有在页面加载后向页面添加内容吗?实际上我有一个方法可以将所有数据转换成html,并在strinbuilder中逐个连接,在page_Load event.Ben中调用相同的方法,我尝试过Firefox和Chorme,但结果是一样的。使用firebug扩展来检查实时htmlIs Firefox有没有防止下载过大文件的选项?10年后,这个数字是1133050大小的10倍