Architecture 编译器如何将其内部二进制表示转换为十进制显示?

Architecture 编译器如何将其内部二进制表示转换为十进制显示?,architecture,binary,type-conversion,Architecture,Binary,Type Conversion,通过这一点,我不想对将二进制转换为十进制的方法进行一般性讨论。我的意思是,具体的示例系统,例如Python、Java或C等语言,实际使用哪种特定的策略?C中使用itoa函数将数字(内部表示为二进制)转换为字符串 你可以 要将数字转换为其十进制表示形式,您需要传递10作为base参数的值 其他语言也会使用类似的功能。您能举例说明您所说的“显示”是什么类型的吗?在正常使用中,编译器根本不显示其内部表示形式。如果他们这样做了,他们不太可能使用十进制来实现。你在说什么显示?编译器将代码(文本)转换为二进

通过这一点,我不想对将二进制转换为十进制的方法进行一般性讨论。我的意思是,具体的示例系统,例如Python、Java或C等语言,实际使用哪种特定的策略?

C中使用
itoa
函数将数字(内部表示为二进制)转换为字符串

你可以

要将数字转换为其十进制表示形式,您需要传递
10
作为
base
参数的值


其他语言也会使用类似的功能。

您能举例说明您所说的“显示”是什么类型的吗?在正常使用中,编译器根本不显示其内部表示形式。如果他们这样做了,他们不太可能使用十进制来实现。你在说什么显示?编译器将代码(文本)转换为二进制表示形式。它们不会将二进制转换成十进制来显示,好吧,我的意思是,它们是如何从二进制表示形式,比如IEEE 754 FP格式,转换成十进制的。内部格式为IEEE 754,显示格式为十进制。我知道霍纳转换的方法,但我不想知道怎么做,而是想知道他们是怎么做的。例如,Java是如何做到的?C++是如何实现的?数学是用二进制完成的,但显示版本是十进制的。他们使用什么过程来转换?