Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/278.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
CakePHP和MySQL获取记录:一次获取少量记录或连续获取数百条记录_Php_Mysql_Performance_Cakephp_Datatables - Fatal编程技术网

CakePHP和MySQL获取记录:一次获取少量记录或连续获取数百条记录

CakePHP和MySQL获取记录:一次获取少量记录或连续获取数百条记录,php,mysql,performance,cakephp,datatables,Php,Mysql,Performance,Cakephp,Datatables,我正在使用这个框架开发一个应用程序,使用MySQL作为数据库 从表中获取的最大记录数不超过2000 要在索引页中显示,我将获取整个2000 对于分页,我使用JavaScript 应用程序的用户群不超过10个用户 我发现在页面加载中获取2000+/-记录的延迟可以忽略不计。由于所有记录都在客户端,因此可以毫不延迟地通过数据表进行搜索 现代网络浏览器和互联网速度似乎可以毫不费力地处理如此大量的数据 在与一些同事讨论时,他们告诉我应该对抓取进行分页,每次10条(例如)记录,每10行向服务器

我正在使用这个框架开发一个应用程序,使用MySQL作为数据库

  • 从表中获取的最大记录数不超过2000

  • 要在索引页中显示,我将获取整个2000

  • 对于分页,我使用JavaScript

  • 应用程序的用户群不超过10个用户

我发现在页面加载中获取2000+/-记录的延迟可以忽略不计。由于所有记录都在客户端,因此可以毫不延迟地通过数据表进行搜索

现代网络浏览器和互联网速度似乎可以毫不费力地处理如此大量的数据

  • 在与一些同事讨论时,他们告诉我应该对抓取进行分页,每次10条(例如)记录,每10行向服务器进行一次查询

  • 我的看法是,一次获取10条记录(我没有使用Ajax)可能会损害用户体验,因为这意味着每次单击和每次搜索都会延迟。在我看来,在这种情况下,服务器端的性能和效率并不是很重要

  • 考虑到所有这些因素,这两个选项中哪一个是正确的



    我在meta上发了帖子。如果需要,我可以编辑得更窄。

    记录会经常更改吗?数据是否需要实时可用?否则,缓存所有记录是可能的。按您选择的间隔刷新缓存。它还将减少数据库的负载server@Daan*-记录是否经常更改-*,不,它们几乎是静态的。是的,它需要实时可用。在这种情况下,缓存它并在数据更改时刷新缓存。实现它并计时。如果“足够快”,你就完成了。我们有太多的未知数无法为您提供可靠的意见——查询、模式、JS包的工作方式、用户的期望、客户端和服务器之间的延迟等等。