c++ - 通过 char* 缓冲区读取 int 的行为是不同的,无论它是正数还是负数

标签 c++ binary-deserialization

背景:我想知道如果我们通过 char * 获取二进制数据,如何(手动)反序列化它们缓冲区。

假设:作为一个最小的例子,我们将在这里考虑:

  • 我只有一个int通过 char* 序列化缓冲区。
  • 我想得到原件int从缓冲区返回。
  • sizeof(int) == 4在目标系统/平台上。
  • 目标系统/平台的字节序是little-endian

注意:这纯粹出于一般兴趣,因此我不想使用与 std::memcpy 类似的东西因为我们不会看到我遇到的奇怪行为。


测试:我构建了以下测试用例:

#include <iostream>
#include <bitset>

int main()
{
    // Create neg_num and neg_num_bytes then display them
    int neg_num(-5000);
    char * neg_num_bytes = reinterpret_cast<char*>(&neg_num);
    display(neg_num, neg_num_bytes);

    std::cout << '\n';

    // Create pos_num and pos_num_bytes then display them
    int pos_num(5000);
    char * pos_num_bytes = reinterpret_cast<char*>(&pos_num);
    display(pos_num, pos_num_bytes);

    std::cout << '\n';

    // Get neg_num back from neg_num_bytes through bitmask operations
    int neg_num_back = 0;
    for(std::size_t i = 0; i < sizeof neg_num; ++i)
        neg_num_back |= static_cast<int>(neg_num_bytes[i]) << CHAR_BIT*i; // For little-endian

    // Get pos_num back from pos_num_bytes through bitmask operations
    int pos_num_back = 0;
    for(std::size_t i = 0; i < sizeof pos_num; ++i)
        pos_num_back |= static_cast<int>(pos_num_bytes[i]) << CHAR_BIT*i; // For little-endian

    std::cout << "Reconstructed neg_num: " << neg_num_back << ": " << std::bitset<CHAR_BIT*sizeof neg_num_back>(neg_num_back);
    std::cout << "\nReconstructed pos_num: " << pos_num_back << ":  " << std::bitset<CHAR_BIT*sizeof pos_num_back>(pos_num_back) << std::endl;

    return 0;
}

在哪里display()定义为:

// Warning: num_bytes must have a size of sizeof(int)
void display(int num, char * num_bytes)
{
    std::cout << num << " (from int)  : " << std::bitset<CHAR_BIT*sizeof num>(num) << '\n';
    std::cout << num << " (from char*): ";
    for(std::size_t i = 0; i < sizeof num; ++i)
        std::cout << std::bitset<CHAR_BIT>(num_bytes[sizeof num -1 -i]); // For little-endian
    std::cout << std::endl;
}

我得到的输出是:

-5000 (from int)  : 11111111111111111110110001111000
-5000 (from char*): 11111111111111111110110001111000

5000 (from int)  : 00000000000000000001001110001000
5000 (from char*): 00000000000000000001001110001000

Reconstructed neg_num: -5000: 11111111111111111110110001111000
Reconstructed pos_num: -120:  11111111111111111111111110001000

我知道测试用例代码很难读懂。简单解释一下:

  • 我创建了一个 int .
  • 我创建了一个 char*指向先前创建的 int 的第一个字节的数组(模拟我有一个真实的 int 存储在 char* 缓冲区中)。因此它的大小是 4。
  • 我显示 int及其二进制表示
  • 我显示 int以及存储在 char* 中的每个字节的串联缓冲区以比较它们是否相同(出于字节顺序目的,顺序相反)。
  • 尝试获取原件int从缓冲区返回。
  • 我显示重建的 int以及它的二进制表示。

我对负值和正值执行了这个过程。这就是为什么代码不如应有的可读性(对此感到抱歉)。


正如我们所见,负值可以成功重构,但它对正值不起作用(我期望 5000 而我得到了 -120)。

我已经用其他几个负值和正值进行了测试,结论仍然相同,它对负数工作正常但对正数失败。

问题:我很难理解为什么连接 4 chars进入 int通过逐位移位改变 char正数保持负值不变时的值?

当我们查看二进制表示时,我们可以看到重构的数字不是由 char 组成的这是我连接的。

是否与static_cast<int>有关?如果我删除它,积分提升规则将隐式应用它。但我需要这样做,因为我需要将它转换成 int为了不丢失换类的结果。
如果这是问题的核心,如何解决?


另外: 是否有比按位移位更好的取回值的方法?不依赖于系统/平台字节序的东西。

也许这应该是另一个单独的问题。

最佳答案

这里有两个主要因素会影响结果:

  • char 类型可以是有符号或无符号的,这是留给编译器的实现细节。
  • 当发生整数转换时,有符号值被符号扩展。

这里可能发生的是 char 在您的系统和您的编译器上签名。这意味着当您将字节转换为 int 并设置高位时,该值将被符号扩展(例如二进制 10000001 将被符号扩展为 1111111111111111111111111000001).

这当然会影响您的位运算。

解决方案是使用明确的unsigned 数据类型,即unsigned char。我还建议您使用 unsigned int(或 uint32_t)进行类型转换和数据的临时存储,并且只将完整结果转换为纯 int.

关于c++ - 通过 char* 缓冲区读取 int 的行为是不同的,无论它是正数还是负数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58432136/

相关文章:

C++ 不使用 pow 或循环计算数字的幂

c++ - 类似 ENet 的库,但用于 TCP?

c++ - 依赖行者 : Unable to resolve the side by side configuration information contains error

c# - 没有对象类型 'ImagePacket'的程序集ID。序列化异常捕获C#

c++ - 关闭文件时会出现错误吗?

c++ - 我做错了什么导致无限循环

c# - 为了使二进制反序列化失败,类/对象必须更改多少

.net - 二进制序列化命名空间更改

C# 无法反序列化 DataTable