Tabulator 在制表器网格中读取分块JSON流

Tabulator 在制表器网格中读取分块JSON流,tabulator,chunked-encoding,chunked,ndjson,Tabulator,Chunked Encoding,Chunked,Ndjson,我有一个制表器网格,并使用Ebay的jsonpipe库以分块格式从我的服务器加载JSON,因此即使结果非常大,我也可以立即开始填充我的数据网格。将此类数据输入制表器的方法是 table.addRow(row, true); 这很好,但是您必须为每条记录添加一个setTimeout,否则用户在几秒钟内什么也看不到。但是setTimeout会减慢速度——即使是在很小的时候——甚至从本地文件加载也需要很长时间才能加载800条记录 有没有人找到一种直接在tablator中读取分块JSON的方法?他们现

我有一个制表器网格,并使用Ebay的jsonpipe库以分块格式从我的服务器加载JSON,因此即使结果非常大,我也可以立即开始填充我的数据网格。将此类数据输入制表器的方法是

table.addRow(row, true);
这很好,但是您必须为每条记录添加一个setTimeout,否则用户在几秒钟内什么也看不到。但是setTimeout会减慢速度——即使是在很小的时候——甚至从本地文件加载也需要很长时间才能加载800条记录

有没有人找到一种直接在tablator中读取分块JSON的方法?他们现有的Ajax方法不包括流式/分块的换行符编码JSON

我想补充一点,数据已经从我的服务器中分块了——首先是流式发送的,没有必要像设置使用时那样让Ajax重复请求

ajaxProgressiveLoad:"load", //sequentially load all data into the table

虽然这不是正确的技术解决方案,但这几乎是在瞬间加载我的数据。我去掉了(可怕的)setTimeout,并将其添加到jsonpipe的success函数中。必须在执行请求的fn的顶部定义变量arr和count

    if (count == 50) {
        table.addData(arr, true);
        count = 0;
        arr = [];
    }

我对它进行了一点修改,每次修改50次似乎可以产生最快的结果,我还没有在服务器端检查这个问题,只检查了本地文件,所以如果需要修改,我会更新。远比只对每个块使用addRow要好得多。

虽然这不是正确的技术解决方案,但这几乎是在瞬间加载我的数据。我去掉了(可怕的)setTimeout,并将其添加到jsonpipe的success函数中。必须在执行请求的fn的顶部定义变量arr和count

    if (count == 50) {
        table.addData(arr, true);
        count = 0;
        arr = [];
    }

我对它进行了一点修改,每次修改50次似乎可以产生最快的结果,我还没有在服务器端检查这个问题,只检查了本地文件,所以如果需要修改,我会更新。远比只为每个区块使用addRow要好得多。

制表器内置了渐进式Ajax加载功能,其工作原理与分页类似,允许您在区块中拉入数据

var table=新制表器(“示例表”{
ajaxURL:“http://www.getmydata.com/now“,//ajax URL
ajaxProgressiveLoad:“加载”//按顺序将所有数据加载到表中
});
您还可以使用滚动渐进加载,它仅在用户滚动到数据时加载数据:

var table=新制表器(“示例表”{
ajaxURL:“http://www.getmydata.com/now“,//ajax URL
ajaxProgressiveLoad:“滚动”//在用户滚动时将数据加载到表中
});

详细信息可以在制表器中找到,制表器内置了渐进式Ajax加载功能,其工作原理与分页类似,允许您将数据分块拉入

var table=新制表器(“示例表”{
ajaxURL:“http://www.getmydata.com/now“,//ajax URL
ajaxProgressiveLoad:“加载”//按顺序将所有数据加载到表中
});
您还可以使用滚动渐进加载,它仅在用户滚动到数据时加载数据:

var table=新制表器(“示例表”{
ajaxURL:“http://www.getmydata.com/now“,//ajax URL
ajaxProgressiveLoad:“滚动”//在用户滚动时将数据加载到表中
});

完整的详细信息可以在

中找到。我的数据已经从服务器分块,我认为这是问题所在。我的数据已经从服务器分块,我认为这是问题所在。