Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/json/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Json 使用Flask MySQL SQLAlchemy后端将大量数据加载到Vanilla JS前端的有效方法?_Json_Architecture - Fatal编程技术网

Json 使用Flask MySQL SQLAlchemy后端将大量数据加载到Vanilla JS前端的有效方法?

Json 使用Flask MySQL SQLAlchemy后端将大量数据加载到Vanilla JS前端的有效方法?,json,architecture,Json,Architecture,我有一个基于flask的web服务器设置,可以输入许多独特的数据点。虽然插入数据库是异步完成的,但从数据库中获取数据是比较困难的部分。对于每个请求,我将看到平均250000行原始数据,这些数据需要使用plotly.js以图形格式显示。在MySQL命令行上执行原始查询大约需要10秒才能返回数据 然而,由于我使用SQLAlchemy作为ORM,因此似乎有很大的开销。然后,需要将提取的数据转储为JSON格式,以发送到前端进行显示 我知道这种情况有很多可以改变的变数,但我在试图找到解决问题的方法大约一周

我有一个基于flask的web服务器设置,可以输入许多独特的数据点。虽然插入数据库是异步完成的,但从数据库中获取数据是比较困难的部分。对于每个请求,我将看到平均250000行原始数据,这些数据需要使用plotly.js以图形格式显示。在MySQL命令行上执行原始查询大约需要10秒才能返回数据

然而,由于我使用SQLAlchemy作为ORM,因此似乎有很大的开销。然后,需要将提取的数据转储为JSON格式,以发送到前端进行显示

我知道这种情况有很多可以改变的变数,但我在试图找到解决问题的方法大约一周后提出了这个问题。解决方案是使用硬件吗

TLDR:后端有大量数据(Flask、SQLAlchemy、MySQL);查询250000条数据记录并转换为JSON后,需要在前端显示;有什么好办法吗


编辑:我忘了提到数据的大小。对于250000行SQL,发送的JSON对象大约为22.6MB。这个问题处理的表大约有15列,包含浮点、时间戳、varchar和整数。我愿意提供更多可以提供的信息。

结果表明,在后台启动一个异步进程来实现这一点,并希望它能够工作是一个完美的解决方案