Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/templates/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Html 为什么不';计算机不能使用厘米吗?_Html_Css_User Interface_Web_Operating System - Fatal编程技术网

Html 为什么不';计算机不能使用厘米吗?

Html 为什么不';计算机不能使用厘米吗?,html,css,user-interface,web,operating-system,Html,Css,User Interface,Web,Operating System,我有一个问题,为什么电脑不用厘米(或英寸)代替像素 我开始思考这个问题,我不明白为什么实际上所有的东西都不是用厘米或其他现实生活中的计量单位来计量的。像素不是真正的测量单位(像素!=像素) 如果我们转到HTML,生成的网页可能会有完全不同的外观,或者如果文本大小是以像素为单位定义的,则无法读取(我知道不建议使用像素来指定文本大小) 但是为什么不用厘米呢?您以厘米为单位定义字体大小,读取设备将查找与厘米对应的像素数(最接近的近似值),并将结果转换为像素。这是一个简单的操作,用户将始终看到一个可读的

我有一个问题,为什么电脑不用厘米(或英寸)代替像素

我开始思考这个问题,我不明白为什么实际上所有的东西都不是用厘米或其他现实生活中的计量单位来计量的。像素不是真正的测量单位(像素!=像素)

如果我们转到HTML,生成的网页可能会有完全不同的外观,或者如果文本大小是以像素为单位定义的,则无法读取(我知道不建议使用像素来指定文本大小)

但是为什么不用厘米呢?您以厘米为单位定义字体大小,读取设备将查找与厘米对应的像素数(最接近的近似值),并将结果转换为像素。这是一个简单的操作,用户将始终看到一个可读的文本,就像它是为了显示,而不管他们的屏幕像素密度

这一概念可以扩展,以便GUI元素(操作系统、应用程序、HTML网页导航)以厘米为单位指定,并由矢量图形构成,因此无论它们显示在哪个显示器上,它们的大小始终相同


我的问题是,为什么在计算机中,特别是网页(HTML、CSS)、操作系统和应用程序中,没有使用真正的度量?是什么阻止了向前移动和使用真实尺寸?

像素允许对显示器进行非常精细的控制,并允许跨设备方法显示图形数据

有一种测量称为PPI(每英寸像素数),也称为像素密度。这是因为并非所有设备的像素定义或实现都相同

通过使用像素,可以计算用户设备的显示,而厘米或英寸是静态的


如果你使用厘米作为显示器,它在显示器上看起来可能不错,但在手机等小型设备上看起来会大不相同。

计算机本质上是以谨慎的数量使用数字信息的机器。屏幕或显示器的最小测量单位是像素,就像原子是模拟世界中物质的最小实际划分一样

监视器也可能具有不同程度的分辨率(每单位长度的像素数,在过去称为DPI或每英寸点数)和深度(任何单个像素的不同颜色数,通常为2的幂。“8位”颜色表示每像素2到8=256种不同颜色,而“32位”将意味着超过40亿种不同的颜色)。最早广泛使用的屏幕分辨率之一是72 DPI~=183点/厘米,只有8位颜色


此外,线性测量标准可能不会产生整数量。例如,如果您的像素光圈不是十分之一厘米(或1/x,x您想要的任何数字),则无法以离散单位精确表示屏幕上任何对象的大小。例如,如果屏幕密度正好是每2厘米439个像素,那么计算像素到线性测量值将非常麻烦。

您可以使用
em
作为字体的测量单位。它在所有显示器上看起来都是一样的,就像矢量一样。对于可怜的英寸没有一个想法?因为19英寸显示器上的一英寸与100英寸投影上的一英寸大不相同。但是如果你用像素来衡量,它的比例是合适的。你可以用
cm
mm
in
来衡量HTML的大小。问题是什么?如果要求计算机使用厘米(比如,CSS中的
字体大小:5cm
)。如果涉及到一个真正的问题(比如“为什么人们不更多地使用CSS中的
cm
单元?”),那么它可能太宽泛了,或者主要是基于观点,或者两者兼而有之。我不认为我想指出的错误是,颜色深度为“8位”的显示器不能正确显示“32位”颜色。这是否是反对使用“32位”颜色的理由,因为以前的一些设备可能有问题?cm测量也是如此。当然,我与任何行业标准都没有任何关系。关于错误的一点是:它们传播并变得更大,而不是自我纠正。从具有不可分割单元的“原子模型”开始,可以减轻错误传播。在20世纪80年代,聪明的软件和硬件实现仍然必须处理“灰度”和“抖动”操作。当打印设备(如分辨率为300 dpi的激光打印机)试图打印分辨率为72 dpi的屏幕图像时,就会出现这种情况。这导致“位图”图像演变为“矢量化”格式,然后封装后脚本(eps)诞生了。此外,您的观点是什么?1毫米的误差是不可接受的,但是使用可能有50%大小误差的像素(取决于设备的2厘米和另一个相同图片的1厘米)可以吗?什么是较小的~1毫米误差或1厘米误差?根据您的计算,439 px=2 cm;1px=0.00455580865603644646924829157754厘米;2px=0.009111617312072892938496583142厘米;四舍五入2px=0.01厘米;0.001厘米的误差不是问题,你不是在这里制作电子显微镜。您假设您的设备的分辨率为0.01cm=2 px。我之所以提到这一切,是因为“情况发生了变化”。当72 dpi屏幕分辨率是所有显示器供应商都能提供的分辨率时,就不需要考虑300 dpi打印机了。现在,激光打印机的分辨率远远超过了任何显示设备,因此,要求将其重新安装到厘米的公制刻度将产生灾难性的影响。在工业的基础阶段选择正确的标准:像素=基本单位。这不会很快改变。