torch.Storage¶
一个torch._TypedStorage是
元素torch.dtype.它可以被赋予任何torch.dtype,内部数据将得到适当的解释。
每个 strangetorch.Tensor包含一个torch._TypedStorage,
它存储了torch.Tensor视图。
为了向后兼容,还有 classes
(如torch.<type>Storagetorch.FloatStorage,torch.IntStorage等)。这些
类实际上并没有被实例化,并且调用它们的构造函数会创建
一个torch._TypedStorage替换为适当的torch.dtype. 类具有所有相同的类方法torch.<type>Storagetorch._TypedStorage有。
此外,为了向后兼容,还有
与默认数据类型对应的 Storage 类
(torch.Storagetorch.get_default_dtype()).例如,如果默认数据类型为 ,则解析为torch.floattorch.Storagetorch.FloatStorage.
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch._TypedStorage¶ -
-
cuda(device=None, non_blocking=False, **kwargs)[来源]¶ 返回 CUDA 内存中此对象的副本。
如果此对象已在 CUDA 内存中并且位于正确的设备上,则 不执行复制,返回原始对象。
-
财产
device¶
-
dtype: torch.dtype¶
-
类方法(文件名,shared=False,大小=0)→存储[源代码]
from_file¶ 如果 shared 为 True,则内存在所有进程之间共享。 所有更改都将写入文件。如果 shared 为 False,则对 存储不会影响文件。
size 是存储中的元素数。如果 shared 为 False,则 则文件必须至少包含 size * sizeof(Type) 字节 (Type 是存储的类型)。如果 shared 为 True,则文件将为 如果需要,请创建。
-
财产
is_cuda¶
-
is_sparse= 假¶
将存储移动到共享内存。
对于共享内存中已有的存储和 CUDA,这是无作 存储,无需移动即可跨进程共享。 共享内存中的存储无法调整大小。
返回: self
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.DoubleStorage¶ -
dtype: torch.dtype = torch.float64[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.FloatStorage¶ -
dtype: torch.dtype = torch.float32[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.HalfStorage¶ -
dtype: torch.dtype = torch.float16[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.LongStorage¶ -
dtype: torch.dtype = torch.int64[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.IntStorage¶ -
dtype: torch.dtype = torch.int32[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.ShortStorage¶ -
dtype: torch.dtype = torch.int16[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.CharStorage¶ -
dtype: torch.dtype = torch.int8[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.ByteStorage¶ -
dtype: torch.dtype = torch.uint8[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.BoolStorage¶ -
dtype: torch.dtype = torch.bool[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.BFloat16Storage¶ -
dtype: torch.dtype = torch.bfloat16[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.ComplexDoubleStorage¶ -
dtype: torch.dtype = torch.complex128[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.ComplexFloatStorage¶ -
dtype: torch.dtype = torch.complex64[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.QUInt8Storage¶ -
dtype: torch.dtype = torch.quint8[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.QInt8Storage¶ -
dtype: torch.dtype = torch.qint8[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.QInt32Storage¶ -
dtype: torch.dtype = torch.qint32[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.QUInt4x2Storage¶ -
dtype: torch.dtype = torch.quint4x2[来源]¶
-
-
class (*args, wrap_storage=None, dtype=None, device=None)[来源]
torch.QUInt2x4Storage¶ -
dtype: torch.dtype = torch.quint2x4[来源]¶
-