Heim > Artikel > Technologie-Peripheriegeräte > Umfassendes Verständnis des Kerns von Pytorch, dem Weg zum Durchbruch von Tensor!
今天会把Pytorch在张量这方面的内容做一个记录。
同时希望可以给大家提供一丢丢帮助!
因为今儿分享的内容,绝对是非常干货的一些示例。
先简单介绍下,在PyTorch中,张量是核心数据结构,它是一个多维数组,类似于NumPy中的数组。张量不仅仅是存储数据的容器,还是进行各种数学运算和深度学习操作的基础。
下面从三方面做一个总结:
图片
张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。
在PyTorch中,张量是torch.Tensor的实例,可以通过不同的方式创建,如直接从Python列表、NumPy数组或通过特定函数生成。
import torch# 创建一个标量scalar_tensor = torch.tensor(3.14)# 创建一个向量vector_tensor = torch.tensor([1, 2, 3])# 创建一个矩阵matrix_tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])# 创建一个3D张量tensor_3d = torch.rand((2, 3, 4))# 2行3列4深度
每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。
# 获取张量的形状shape = tensor_3d.shape# 获取张量的数据类型dtype = tensor_3d.dtype# 获取张量所在的设备device = tensor_3d.device
张量的形状定义了其维度和每个维度上的大小。例如,形状为(2, 3, 4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。
# 获取张量的形状shape = tensor_3d.shape# 改变张量的形状reshaped_tensor = tensor_3d.view(3, 8)# 将原始形状(2, 3, 4)变为(3, 8)
PyTorch中的张量是基于Tensor类实现的,它提供了对底层存储的抽象。
张量包含三个主要组件:
(Storage)存储是实际存储数据的地方,它是一块连续的内存区域。多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。
# 获取张量的存储storage = tensor_3d.storage()
张量的形状定义了其维度和每个维度上的大小。形状信息有助于解释存储中数据的组织方式。
# 获取张量的形状shape = tensor_3d.shape
步幅是指在存储中移动到下一个元素所需的步数。了解步幅有助于理解在张量中进行索引和切片时的性能。
# 获取张量的步幅stride = tensor_3d.stride()
PyTorch提供了丰富的张量操作,包括数学运算、逻辑运算、索引和切片等。
这里列举最最常见的集中操作:
# 加法result_add = tensor_3d + 2# 乘法result_mul = tensor_3d * 3# 矩阵乘法matrix_a = torch.rand((2, 3))matrix_b = torch.rand((3, 4))result_matmul = torch.mm(matrix_a, matrix_b)
# 大小比较result_compare = tensor_3d > 0.5# 逻辑运算result_logical = torch.logical_and(result_add, result_compare)
# 索引element = tensor_3d[0, 1, 2]# 切片sliced_tensor = tensor_3d[:, 1:3, :]
# 改变形状reshaped_tensor = tensor_3d.view(3, 8)# 转置transposed_tensor = tensor_3d.transpose(0, 2)
广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。
# 广播tensor_a = torch.rand((1, 3, 1))tensor_b = torch.rand((2, 1, 4))result_broadcast = tensor_a + tensor_b
今儿介绍的是关于PyTorch中张量的基础概念、原理以及常见操作。
张量作为深度学习中的基本数据结构,对于理解和实现神经网络非常关键。
Das obige ist der detaillierte Inhalt vonUmfassendes Verständnis des Kerns von Pytorch, dem Weg zum Durchbruch von Tensor!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!