Machine learning 如何减少降维后的位置变化?
免责声明:我是机器学习初学者 我正在将高维数据(文本作为tdidf向量)可视化到2D空间。我的目标是标记/修改这些数据点,并在修改和更新2D绘图后重新计算其位置。逻辑已经起作用了,但是每次迭代可视化都与前一次非常不同,尽管在一个数据点中28.000个特征中只有1个发生了变化 有关该项目的一些细节:Machine learning 如何减少降维后的位置变化?,machine-learning,scikit-learn,data-visualization,dimensionality-reduction,Machine Learning,Scikit Learn,Data Visualization,Dimensionality Reduction,免责声明:我是机器学习初学者 我正在将高维数据(文本作为tdidf向量)可视化到2D空间。我的目标是标记/修改这些数据点,并在修改和更新2D绘图后重新计算其位置。逻辑已经起作用了,但是每次迭代可视化都与前一次非常不同,尽管在一个数据点中28.000个特征中只有1个发生了变化 有关该项目的一些细节: 约1000个文本文档/数据点 约28.000 tfidf矢量特征 由于其交互性质,必须非常快速地进行计算(比方说
- 约1000个文本文档/数据点
- 约28.000 tfidf矢量特征
- 由于其交互性质,必须非常快速地进行计算(比方说<3s)