Machine learning 有没有有效的双向降维方法?

Machine learning 有没有有效的双向降维方法?,machine-learning,statistics,gaussian,dimensions,dimensionality-reduction,Machine Learning,Statistics,Gaussian,Dimensions,Dimensionality Reduction,是否有合理的降维技术,例如从20维降到5维,然后即使数据丢失也能从5维降到20维 像t-SNE、PCA、高斯随机投影这样的算法都很好,但据我所知,从压缩的低维数据到高维数据,没有一种简单的方法可以保持一致 我专门为候选人生成培训GPs,当我在较低维度工作时,相关GPs表现更好。为了生成一个候选对象,我需要能够从经过训练的模型到一个与我给出的模型相同维度的新点 我使用了一个小的未经训练的神经网络线性层和一个激活函数,它获取更高的数据并输出低维数据。当我想回去的时候,我在网络的输入上做梯度下降,基于

是否有合理的降维技术,例如从20维降到5维,然后即使数据丢失也能从5维降到20维

像t-SNE、PCA、高斯随机投影这样的算法都很好,但据我所知,从压缩的低维数据到高维数据,没有一种简单的方法可以保持一致

我专门为候选人生成培训GPs,当我在较低维度工作时,相关GPs表现更好。为了生成一个候选对象,我需要能够从经过训练的模型到一个与我给出的模型相同维度的新点

我使用了一个小的未经训练的神经网络线性层和一个激活函数,它获取更高的数据并输出低维数据。当我想回去的时候,我在网络的输入上做梯度下降,基于输出,这是我拥有的低维数据。
这种方法可行,但未经训练的网络不太可能是最好的技术。

可以带你去那里:基本上与主成分分析相反。

从压缩的低维数据到高维数据不是一种简单的方法。嗯,你有意识地丢失了信息,现在想让它为你保留?这是一个有趣的问题,你可能应该在stats.stackexchange.com或math.stackexchange.com上提出。本质上,问题是降维将把流形平坦或变形的R^n子集映射到一个点上。问题是如何考虑逆映射。显然,流形上的任何一点都是同样有效的,所以你必须采取某种方式打破这种束缚。在映射下是否有不变的点?是否有比其他点更可能的点?在适当的意义上,也许更喜欢最小的点?例如,norm.查看自动编码器。@severinpapadeux我很清楚我丢失了信息,因此在该句中出现了“有点”,在前一句中出现了“尽管数据丢失”,等等。