Clojure上的GPU编程?

Clojure上的GPU编程?,clojure,cuda,opencl,gpu,Clojure,Cuda,Opencl,Gpu,我想知道,如果存在用于Clojure的GPU集成库,该怎么办 我看到过一些例子,其中包括手动滚动OpenCL代码,但我特别想寻找类似于Anacoda accelerate的东西,它可以相对无缝地将Numpy Python表达式转换为CUDA代码 我对OpenCL或Cuda方法持开放态度。这是一个最近在github上启动的项目。这看起来更像是一个实验,令人印象深刻 有一个Google代码夏令营项目提案,将GPU矩阵实现添加到核心。矩阵: 一旦完成,该项目将允许在GPU上优化和执行大型向量/矩

我想知道,如果存在用于Clojure的GPU集成库,该怎么办

我看到过一些例子,其中包括手动滚动OpenCL代码,但我特别想寻找类似于Anacoda accelerate的东西,它可以相对无缝地将Numpy Python表达式转换为CUDA代码


我对OpenCL或Cuda方法持开放态度。

这是一个最近在github上启动的项目。这看起来更像是一个实验,令人印象深刻

有一个Google代码夏令营项目提案,将GPU矩阵实现添加到核心。矩阵

一旦完成,该项目将允许在GPU上优化和执行大型向量/矩阵表达式

免责声明:我可能是这个项目的导师。

在这个问题发布几个月后发布。它似乎提供了对标准接口的更为惯用的解释,但它不是一个将Clojure数学/向量运算转换为OpenCL运算的工具(我认为这就是OP想要的?)

[ClojureCL]带来了强大的功能,但如果您从未在GPU或嵌入式设备上编程过任何东西,请不要指望它会很容易实现。有了ClojureCL,它并不像在C中那样困难(C中的OpenCL Hello World有一百行源代码,而在ClojureCL中只有几行)

好消息是,您可以使用任何OpenCL书籍来学习ClojureCL,我们甚至为OpenCL in Action书籍中使用的示例提供了ClojureCL代码


一个老话题,但现在我们有,这是一个包装上


它不会给你automagic的加速,但至少是一个更高层次的线性代数库。

没有看到该页面上提到的GPU,这个项目发生了什么?