Machine learning 注意在非NLP区域使用的示例?

Machine learning 注意在非NLP区域使用的示例?,machine-learning,nlp,artificial-intelligence,seq2seq,attention-model,Machine Learning,Nlp,Artificial Intelligence,Seq2seq,Attention Model,当我在寻找注意力实现示例时,首先考虑的是编码器-解码器结构。除了NLP之外,还有其他领域使用注意的例子吗?至少有一个领域将注意机制适应于非NLP领域:分子注意变压器。分子的结构像一个图形,类似于一个句子。一个原子与其他原子之间有一段距离,它们相互依赖,就像句子中的单词一样。在论文中,他们“通过增加原子间距离和分子图结构的自我关注,使Transformer(Devlin et al.,2018)适应化学分子。” P>但是,变压器的应用领域可能更多,至少在数据具有图形结构和节点有某种依赖性的情况下

当我在寻找注意力实现示例时,首先考虑的是编码器-解码器结构。除了NLP之外,还有其他领域使用注意的例子吗?

至少有一个领域将注意机制适应于非NLP领域:分子注意变压器。分子的结构像一个图形,类似于一个句子。一个原子与其他原子之间有一段距离,它们相互依赖,就像句子中的单词一样。在论文中,他们“通过增加原子间距离和分子图结构的自我关注,使Transformer(Devlin et al.,2018)适应化学分子。”


<> P>但是,变压器的应用领域可能更多,至少在数据具有图形结构和节点有某种依赖性的情况下,在考虑到神经机器翻译中的注意机制(NMT和NLP的是部分)后不久,将更好地回答这个问题。