Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/html/90.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 大型地理空间数据的技术解决方案_Python_Html_Leaflet_Geospatial_Folium - Fatal编程技术网

Python 大型地理空间数据的技术解决方案

Python 大型地理空间数据的技术解决方案,python,html,leaflet,geospatial,folium,Python,Html,Leaflet,Geospatial,Folium,我制作了一个应用程序,将点放在特定多边形的地图上。这是一个具有简单UI的Windows窗体应用程序。这些点也经过预过滤。我完全使用Python、geopandas和folium库。因此,该程序保存了所有层的.html地图和.xlsx sammari。然而,数据集可能非常庞大,在这个html地图上可能有,例如,100000点。显然,谷歌地球和浏览器都无法处理这些大的.html地图。那么,有什么解决方案可以处理这么大的数据量吗 也许有叶绿植物爱好者?标记群能改善这种情况吗?100000点现在的数据量

我制作了一个应用程序,将点放在特定多边形的地图上。这是一个具有简单UI的Windows窗体应用程序。这些点也经过预过滤。我完全使用Python、geopandas和folium库。因此,该程序保存了所有层的.html地图和.xlsx sammari。然而,数据集可能非常庞大,在这个html地图上可能有,例如,100000点。显然,谷歌地球和浏览器都无法处理这些大的.html地图。那么,有什么解决方案可以处理这么大的数据量吗


也许有叶绿植物爱好者?标记群能改善这种情况吗?

100000点现在的数据量并不是很大。即使是纯粹的基于网络的工具也能做到这一点。在JavaScript/Web世界中,在需要标记集群之前,我知道哪些规模远远超过了这个规模(但即使在技术上可以在地图上放置100k标记,它们可能是表示此类数据的更好方式)

我没有使用deck.gl进行编程的个人经验,但我经常使用的工具(Google BigQuery GeoViz-)可以绘制10万个点,甚至更多。这是一个客户端页面,它从BigQuery获取数据,但应该很容易采用它来绘制静态资源(这是一个开源工具),或者在deck.gl示例中找到另一个解决方案。

“标记集群可以改善情况吗?”是的,它可以。那么它可能不完全符合您的要求,但我们不知道这些是什么。