我使用的是 OS X,其版本为 i686-apple-darwin11-llvm-gcc-4.2 (GCC) 4.2.1(基于 Apple Inc. build 5658)(LLVM build 2336.11.00)
在 Windows 7 上使用 gcc (tdm64-1) 4.6.1
。
为什么以下代码在两个系统上生成不同的输出:
double d = 2.71828152557319224769116772222332656383514404296875;
printf("%1.55f\n", d);
OS X 输出为 2.7182815255731922476911677222233265638351440429687500000
Win7输出为2.7182815255731922000000000000000000000000000000000000000
sizeof(double) == 8
在两个系统上。
最佳答案
C 标准不要求 printf
打印实际值,只要求其正确到一定数量的位置并满足某些舍入方向误差约束。大多数类 UNIX 操作系统都会打印精确值,或者如果没有足够的位置来打印精确值,则将值正确舍入到所请求的位数。 MSVCRT 舍入到固定数量的位置,并用零填充其余部分。两种行为都很符合,但后者确实丑陋且低质量。
关于c - 为什么系统之间打印的位数不同?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13486544/