Caching 数据位置与机器和忆阻器的相关性?

Caching 数据位置与机器和忆阻器的相关性?,caching,optimization,computer-architecture,scientific-computing,supercomputers,Caching,Optimization,Computer Architecture,Scientific Computing,Supercomputers,初步评论:我不知道这是否是解决这个问题的最好的堆栈交换网站。如果没有,我道歉,它应该被移动到正确的网站 最近,惠普谈到了一个名为“基于忆阻器和光通信”的研究项目。我们的目标不是讨论这个项目是否会在4年、10年或20年内成为现实。目的是讨论这种计算机对于计算密集型软件的设计意味着什么 今天,我们的目标是测试大型超级计算机。在这种情况下,通常认为代码优化应该关注: 混合并行化(MPI+线程化) 矢量化(SIMD) 数据局部性(与数据传输成本相比,计算是免费的) 我的问题是:如果像惠普提出的架构

初步评论:我不知道这是否是解决这个问题的最好的堆栈交换网站。如果没有,我道歉,它应该被移动到正确的网站


最近,惠普谈到了一个名为“基于忆阻器和光通信”的研究项目。我们的目标不是讨论这个项目是否会在4年、10年或20年内成为现实。目的是讨论这种计算机对于计算密集型软件的设计意味着什么

今天,我们的目标是测试大型超级计算机。在这种情况下,通常认为代码优化应该关注:

  • 混合并行化(MPI+线程化)

  • 矢量化(SIMD)

  • 数据局部性(与数据传输成本相比,计算是免费的)


我的问题是:如果像惠普提出的架构成为现实,它会改变这些优先级,特别是第三个优先级吗?(即,与计算时间相比,数据传输是否变得免费)

忆阻器将用作SRAM单元的替代品。尽管它们可能会增加内存密度/面积并带来能效的提高,但我看不到它们会改变数据局部性的概念,因为这是一个抽象的概念。是的,这将增加内存层次结构所有层上的存储/性能能力,但您的数据块仍将保持一定的距离。除非将一个神奇的内存块连接到内核,该内存块具有零周期延迟和无限容量,否则数据局部性将始终是一个优化挑战。

对于固定大小的设备,通信将永远不会空闲,因为没有任何东西可以比光速更快。(除非有人发现新的物理机制使FTL成为可能。)它可能会降低以其他方式处理数据局部性的优先级—如果缓存丢失,您可以立即从大量可用线程中切换上下文呢?