在this answer中,zwol提出了以下要求:
The correct way to convert two bytes of data from an external source into a 16-bit signed integer is with helper functions like this:
#include <stdint.h>
int16_t be16_to_cpu_signed(const uint8_t data[static 2]) {
uint32_t val = (((uint32_t)data[0]) << 8) |
(((uint32_t)data[1]) << 0);
return ((int32_t) val) - 0x10000u;
}
int16_t le16_to_cpu_signed(const uint8_t data[static 2]) {
uint32_t val = (((uint32_t)data[0]) << 0) |
(((uint32_t)data[1]) << 8);
return ((int32_t) val) - 0x10000u;
}
上面的哪个函数合适,取决于数组是包含小端还是大端表示。字节序不是这里要讨论的问题,我想知道为什么zwol从转换为
0x10000u
的uint32_t
值中减去int32_t
。为什么这是正确的方法?
在转换为返回类型时,如何避免实现定义的行为?
既然可以假设2的补码表示形式,那么这种更简单的转换将如何失败:
return (uint16_t)val;
这个天真的解决方案有什么问题:
int16_t le16_to_cpu_signed(const uint8_t data[static 2]) {
return (uint16_t)data[0] | ((uint16_t)data[1] << 8);
}
最佳答案
如果int
是16位,那么如果return
语句中的表达式的值超出int16_t
的范围,则您的版本将依赖于实现定义的行为。
但是第一个版本也有类似的问题。例如,如果int32_t
是int
的typedef,并且输入字节均为0xFF
,则return语句中的减法结果为UINT_MAX
,当转换为int16_t
时,会导致实现定义的行为。
恕我直言,您链接到的答案有几个主要问题。
关于c - 将2个字节转换为带符号的16位整数的正确方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60864450/