唯一的区别是传递给 DataLoader 的参数之一是“numpy.array”类型,另一个是“list”类型,但 DataLoader 给出完全不同的结果。
您可以使用以下代码重现它:
from torch.utils.data import DataLoader,Dataset
import numpy as np
class my_dataset(Dataset):
def __init__(self,data,label):
self.data=data
self.label=label
def __getitem__(self, index):
return self.data[index],self.label[index]
def __len__(self):
return len(self.data)
train_data=[[1,2,3],[5,6,7],[11,12,13],[15,16,17]]
train_label=[-1,-2,-11,-12]
########################### Look at here:
test=DataLoader(dataset=my_dataset(np.array(train_data),train_label),batch_size=2)
for i in test:
print ("numpy data:")
print (i)
break
test=DataLoader(dataset=my_dataset(train_data,train_label),batch_size=2)
for i in test:
print ("list data:")
print (i)
break
结果是:
numpy data:
[tensor([[1, 2, 3],
[5, 6, 7]]), tensor([-1, -2])]
list data:
[[tensor([1, 5]), tensor([2, 6]), tensor([3, 7])], tensor([-1, -2])]
最佳答案
这是因为 torch.utils.data.DataLoader
中如何处理批处理. collate_fn
参数决定如何将样本中的样本合并到一个批处理中。此参数的默认值未记录 torch.utils.data.default_collate
.
此函数通过假设数字/张量/ndarrays 是批处理的原始数据和包含这些原始数据的列表/元组/字典作为要(递归)保留的结构来处理批处理。这使您可以像这样进行语义批处理:
(input_tensor, label_tensor) -> (batched_input_tensor, batched_label_tensor)
([input_tensor_1, input_tensor_2], label_tensor) -> ([batched_input_tensor_1, batched_input_tensor_2], batched_label_tensor)
{'input': input_tensor, 'target': target_tensor} -> {'input': batched_input_tensor, 'target': batched_target_tensor}
(->
左边是dataset[i]的输出,右边是torch.utils.data.DataLoader
的批处理样本)
您的示例代码类似于上面的示例 2:列表结构被保留,同时 int
被批处理。
关于python - 为什么 pytorch DataLoader 在 numpy 数组和列表上的行为不同?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52818145/