Parallel processing 在GPU上合并许多但很小的阵列
我有以下形式的2D数据结构: {t1,1;…;T1500},{t31,1;…;T31500} 因此,每个数据结构大约有15000个条目。范围1-500可能变化很大,只是指示性的,31是固定的。我每100ms得到2000个数据结构,代表测量数据 tx,x表示简单整数。保证如t1,1Parallel processing 在GPU上合并许多但很小的阵列,parallel-processing,gpgpu,Parallel Processing,Gpgpu,我有以下形式的2D数据结构: {t1,1;…;T1500},{t31,1;…;T31500} 因此,每个数据结构大约有15000个条目。范围1-500可能变化很大,只是指示性的,31是固定的。我每100ms得到2000个数据结构,代表测量数据 tx,x表示简单整数。保证如t1,1
*是的,我这样做是为了给出一个想法,希望回答自己的问题: 因此,在GPU行话中,执行许多但相同的任务“x”被称为分段“x”*,在这种情况下,我希望分段合并。到目前为止,还没有生产就绪的算法,因此我将使用分段排序,仍然非常快,但我忽略了内部数组已经排序的事实,但我现在可以并行处理2000个数据集 另一种方法是使用,它确实利用了已经排序的区域这一事实,但是现在我无法将此功能提升到操作2000多个项目,可能是预处理和后处理,以及使用LocationSort over键和!也可用的值将产生结果 *在观看了关于GPU编程的非常有用的udacity讲座后,我得到了这些信息