Jupyter notebook Jupyter笔记本mathjax内联符号与文本重叠

Jupyter notebook Jupyter笔记本mathjax内联符号与文本重叠,jupyter-notebook,jupyter,mathjax,Jupyter Notebook,Jupyter,Mathjax,我在Mozilla Firefox(66.0.3)中运行带有ipykernel(v5.1.0)的Jupyter笔记本电脑,但我也在Chrome中看到过这种情况。 我使用的是64位Windows 10,如果这些信息相关的话 在现有笔记本上呈现mathjax时,它通常显示为: 其中内联的mathjax符号似乎与主文本重叠。渲染器似乎将数学内容视为具有零宽度(?) 我想说清楚: 当我打字时,数学符号显示得很好;如果我执行降价单元格,它们甚至看起来很好 只有在保存笔记本、退出服务器、启动新的jupy

我在Mozilla Firefox(66.0.3)中运行带有ipykernel(v5.1.0)的Jupyter笔记本电脑,但我也在Chrome中看到过这种情况。 我使用的是64位Windows 10,如果这些信息相关的话

在现有笔记本上呈现mathjax时,它通常显示为:

其中内联的mathjax符号似乎与主文本重叠。渲染器似乎将数学内容视为具有零宽度(?)

我想说清楚:

  • 当我打字时,数学符号显示得很好;如果我执行降价单元格,它们甚至看起来很好
  • 只有在保存笔记本、退出服务器、启动新的jupyter服务器并再次启动笔记本时,才会出现上述问题
  • 它只影响内联数学,而不影响显示的数学,正如您从图像中看到的那样
  • 我可以通过每一次新的会话重新执行markdown单元格来修复它,但是它变得非常烦人
底层代码如下所示:

<span class="kw">Principal Component Analysis</span> is an unsupervised linear transformation technique.
It helps to identify patterns in data based on correlations between features.

PCA aims to find the directions of maximum variance in high-dimensional data and projects them onto a new subspace spanned by these vectors (with equal/fewer dimensions than the original one).
Mathematically-speaking, we construct a $d\times k$-dimensional transformation matrix $W$ that allows us to map a sample vector $x$ in $d$-dimensional feature space ($x\in \mathbb{R}^d$) onto a new $k$-dimensional subspace.

$$
x \longrightarrow z = xW
$$

**General PCA algorithm**
1. Center the $d$-dimensional dataset around the origin. Z-scoring (dividing by stdev may help, or not).
2. Construct covariance matrix.
3. Decompose the covariance matrix onto its eigenvectors and eigenvalues.
4. Sort the eigenvalues by decreasing order to rank the corresponding eigenvectors.
5. Select $k$ eigenvectors that correspond to the $k$ largest eigenvalues, where $k$ is the dimensionality of the new feature subspace ($k\leq d$)
6. Construct a projection matrix $W$ from the $k$ eigenvectors chosen in step 4.
7. Perform the projection by multiplying $X^\top W$ (a $n\times k$ matrix), to obtain a new $k$-dimensional feature subspace.

主成分分析是一种无监督的线性变换技术。 它有助于根据特征之间的相关性识别数据中的模式。 PCA的目标是在高维数据中找到最大方差的方向,并将其投影到由这些向量所跨越的新子空间(与原始子空间的维数相等/更少)。 从数学上讲,我们构造了一个$d\times k$维变换矩阵$W$,它允许我们将$d$维特征空间($x\in\mathbb{R}^d$)中的样本向量$x$映射到一个新的$k$维子空间。 $$ x\longrightarrow z=xW $$ **通用PCA算法** 1.将$d$维数据集围绕原点居中。Z评分(除以stdev可能有帮助,也可能没有帮助)。 2.构造协方差矩阵。 3.将协方差矩阵分解为其特征向量和特征值。 4.按降序对特征值进行排序,以对相应的特征向量进行排序。 5.选择对应于$k$最大特征值的$k$特征向量,其中$k$是新特征子空间的维数($k\leq d$) 6.根据步骤4中选择的$k$特征向量构造投影矩阵$W$。 7.通过乘以$X^\top W$(a$n\乘以k$矩阵)执行投影,以获得新的$k$维特征子空间。 我不认为我自己是唯一一个经历过这种情况的人,但我还没有找到任何人在网上讨论这个问题。
我该如何解决这个问题?

这对您没有什么特别的帮助,但我想把它留在这里,因为它可能会帮助其他人:实际上,我在Safari中遇到了这个问题,并通过切换到Firefox解决了这个问题。也许这真的是一个浏览器问题。你试过Opera吗?@azureai我没有试过Opera,我可以在这个周末试一试。我也遇到了这个问题,但重新执行单元格似乎无法解决它。我的系统上没有这个问题:win10 64b,chrome 85.0.4183.102,笔记本服务器是6.0.3,IPython 7.13.0。我执行了您的降价(看起来不错),保存了笔记本,关闭/暂停了笔记本,然后重新打开了笔记本(看起来还不错)。更新到最新版本是一个选项吗?在Ubuntu 20.04上运行Chrome 85.0.4183.121的Jupyter-lab1.2.6没有问题。