PyTorch
原作者 | Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan |
---|---|
开发者 | Meta AI |
首次发布 | 2016年10月 |
当前版本 | 2.5.0[1](2024年10月17日,22天前) |
源代码库 | github |
编程语言 | Python, C++, CUDA |
操作系统 | Linux, macOS, Windows |
平台 | IA-32, x86-64, ARM64 |
类型 | 机器学习和深度学习库 |
许可协议 | BSD许可证 |
网站 | pytorch |
机器学习与数据挖掘 |
---|
PyTorch是一个开源的Python机器学习库,基于Torch库[2][3][4],底层由C++实现,应用于人工智能领域,如计算机视觉和自然语言处理[5]。它最初由Meta Platforms的人工智能研究团队开发,现在属于Linux基金会的一部分[6][7][8]。它是在修改后的BSD许可证下发布的自由及开放源代码软件。 尽管Python接口更加完善并且是开发的主要重点,但 PyTorch 也有C++接口[9]。
许多深度学习软体都是基于 PyTorch 构建的,包括特斯拉自动驾驶[10]、Uber的Pyro[11]、Hugging Face的Transformers[12]、 PyTorch Lightning[13][14]、和Catalyst[15][16]。
概述
[编辑]PyTorch主要有两大特征:[17]
PyTorch包括torch.autograd、torch.nn、torch.optim等子模块[20]。
PyTorch包含多种损失函数,包括 MSE(均方误差 = L2 范数)、交叉熵损失和负熵似然损失(对分类器有用)等。
PyTorch张量
[编辑]PyTorch定义了一个名为张量(torch.Tensor) 的类别来储存和操作同构多维矩形数字阵列。 PyTorch张量与NumPy阵列类似,但也可以在支援 CUDA 的 英伟达 GPU 上运作。 PyTorch 也一直在开发对其他 GPU 平台的支持,例如 AMD 的 ROCm 和 Apple 的Metal Framework[21]。
张量是 PyTorch 中的核心数据抽象,PyTorch 支援各种张量子类型[22]。通常地,一维张量称为向量(vector),二维张量称为矩阵(matrix)。
张量的数据类型包括:
torch.bool
torch.int8
torch.uint8
torch.int16
torch.int32
torch.int64
torch.half
torch.float
torch.double
torch.bfloat
PyTorch神经网络
[编辑]神经网络由对数据执行操作的层/模块组成。 torch.nn 命名空间提供了使用者需要的所有构建块来构建自己的神经网络。PyTorch 中的每个模块都对应nn.模块。 神经网络本身是由其他模块(层)组成的模块。这种嵌套结构允许使用者轻松构建并管理复杂的架构。神经网络中的许多层都是参数化的,即具有相关的权重以及在训练期间优化的偏差。自动子类化跟踪模型对象中定义的所有字段,并生成所有参数可使用模型或方法访问。[2]
import torch # for all things PyTorch
import torch.nn as nn # for torch.nn.Module, the parent object for PyTorch models
import torch.nn.functional as F # for the activation function
激活函数torch.nn.Module
具有封装所有主要内容的对象激活功能,包括 ReLU 及其许多变体、Tanh、 Hardtanh、sigmoid 等。[3]
PyTorch模型常见图层类型
[编辑]线性层
[编辑]最基本的神经网络层类型是线性或完全连接层。在这个层中,每个输入都会影响每个图层的输出到由图层权重指定的程度。如果 模型有 m 个输入和 n 个输出,权重将是一个 m x n 矩阵。
卷积层
[编辑]卷积层旨在处理高度空间相关性。它们在计算机视觉中非常常用, 它们检测组成的特征的紧密分组更高级别的功能。它们也会在其他上下文中弹出。例如, 在 NLP 应用程序中,单词的直接上下文(即序列中附近的其他单词)可以影响语句。
循环层
[编辑]递归神经网络(RNN)是用于顺序数据(从科学仪器到时间序列测量)的自然语言句子。
例子
[编辑]下面的程序用简单的例子展示这个程序库的低层功能。
>>> import torch
>>> dtype = torch.float
>>> device = torch.device("cpu") # 本次在CPU上执行所有的计算
>>> # device = torch.device("cuda:0") # 本次在GPU上执行所有的计算
>>>
>>> # 建立一个张量并用随机数填充这个张量
>>> a = torch.randn(2, 3, device=device, dtype=dtype)
>>> print(a) # 输出张量a
tensor([[-0.1460, -0.3490, 0.3705],
[-1.1141, 0.7661, 1.0823]])
>>>
>>> # 建立一个张量并用随机数填充这个张量
>>> b = torch.randn(2, 3, device=device, dtype=dtype)
>>> print(b) # 输出张量B
tensor([[ 0.6901, -0.9663, 0.3634],
[-0.6538, -0.3728, -1.1323]])
>>>
>>> print(a*b) # 输出两个张量的乘积
tensor([[-0.1007, 0.3372, 0.1346],
[ 0.7284, -0.2856, -1.2256]])
>>> print(a.sum()) # 输出在张量a中所有元素的总和
tensor(0.6097)
>>>
>>> print(a[1,2]) # 输出第2行第3列(0起始)的元素
tensor(1.0823)
>>>
>>> print(a.max()) # 输出在张量a中的极大值
tensor(1.0823)
下列代码块展示了nn
模块提供的高层功能的例子。例子中定义了具有线性层的神经网络。
import torch
from torch import nn # 从PyTorch中导入nn子模块
class NeuralNetwork(nn.Module): # 神经网络被定义为类
def __init__(self): # 在__init__方法中定义诸层和变量
super(NeuralNetwork, self).__init__() # 必须出现在所有网络中
self.flatten = nn.Flatten() # 定义一个压平层
self.linear_relu_stack = nn.Sequential( # 定义诸层的一个堆栈
nn.Linear(28*28, 512), # 线性层有一个输入和输出形状
nn.ReLU(), # ReLU是nn提供的诸多激活函数之一
nn.Linear(512, 512),
nn.ReLU(),
nn.Linear(512, 10),
)
def forward(self, x): # 这个函数定义前向传递。
x = self.flatten(x)
logits = self.linear_relu_stack(x)
return logits
参考文献
[编辑]- ^ 1.0 1.1 PyTorch 2.5.0 Release, SDPA CuDNN backend, Flex Attention. 2024年10月17日 [2024年10月17日].
- ^ 2.0 2.1 Yegulalp, Serdar. Facebook brings GPU-powered machine learning to Python. InfoWorld. 19 January 2017 [11 December 2017]. (原始内容存档于2018-07-12).
- ^ 3.0 3.1 Lorica, Ben. Why AI and machine learning researchers are beginning to embrace PyTorch. O'Reilly Media. 3 August 2017 [11 December 2017]. (原始内容存档于2019-05-17).
- ^ Ketkar, Nikhil. Deep Learning with Python. Apress, Berkeley, CA. 2017: 195–208 [2018-10-02]. ISBN 9781484227657. doi:10.1007/978-1-4842-2766-4_12. (原始内容存档于2018-07-12) (英语).
- ^ Natural Language Processing (NLP) with PyTorch — NLP with PyTorch documentation. dl4nlp.info. [2017-12-18]. (原始内容存档于2019-06-21) (英语).
- ^ Patel, Mo. When two trends fuse: PyTorch and recommender systems. O'Reilly Media. 2017-12-07 [2017-12-18]. (原始内容存档于2019-03-30) (英语).
- ^ Mannes, John. Facebook and Microsoft collaborate to simplify conversions from PyTorch to Caffe2. TechCrunch. [2017-12-18]. (原始内容存档于2020-07-06) (英语).
FAIR is accustomed to working with PyTorch — a deep learning framework optimized for achieving state of the art results in research, regardless of resource constraints. Unfortunately in the real world, most of us are limited by the computational capabilities of our smartphones and computers.
- ^ Arakelyan, Sophia. Tech giants are using open source frameworks to dominate the AI community. VentureBeat. 2017-11-29 [2017-12-18]. (原始内容存档于2019-03-30) (美国英语).
- ^ The C++ Frontend. PyTorch Master Documentation. [2019-07-29]. (原始内容存档于2020-05-08).
- ^ Karpathy, Andrej. PyTorch at Tesla - Andrej Karpathy, Tesla. [2023-12-24]. (原始内容存档于2023-03-24).
- ^ Uber AI Labs Open Sources Pyro, a Deep Probabilistic Programming Language. Uber Engineering Blog. 2017-11-03 [2017-12-18]. (原始内容存档于2017-12-25) (美国英语).
- ^ PYTORCH-TRANSFORMERS: PyTorch implementations of popular NLP Transformers, PyTorch Hub, 2019-12-01 [2019-12-01], (原始内容存档于2023-06-11)
- ^ PYTORCH-Lightning: The lightweight PyTorch wrapper for ML researchers. Scale your models. Write less boilerplate, Lightning-Team, 2020-06-18 [2020-06-18], (原始内容存档于2022-06-08)
- ^ Ecosystem Tools. pytorch.org. [2020-06-18]. (原始内容存档于2023-07-18) (英语).
- ^ GitHub - catalyst-team/catalyst: Accelerated DL & RL, Catalyst-Team, 2019-12-05 [2019-12-05], (原始内容存档于2019-12-22)
- ^ Ecosystem Tools. pytorch.org. [2020-04-04]. (原始内容存档于2023-07-18) (英语).
- ^ PyTorch – About. pytorch.org. [2018-06-11]. (原始内容存档于2018-06-15).
- ^ R.E. Wengert. A simple automatic derivative evaluation program. Comm. ACM. 1964, 7: 463–464. doi:10.1145/355586.364791.
- ^ Bartholomew-Biggs, Michael; Brown, Steven; Christianson, Bruce; Dixon, Laurence. Automatic differentiation of algorithms (PDF). Journal of Computational and Applied Mathematics. 2000, 124 (1-2): 171–190. Bibcode:2000JCoAM.124..171B. doi:10.1016/S0377-0427(00)00422-2.
- ^ 20.0 20.1 神经网络与PyTorch实战 Application of Neural Network and PyTorch. 机械工业出版社. 2018. ISBN 9787111605775.
- ^ Introducing Accelerated PyTorch Training on Mac. pytorch.org. [2022-06-04]. (原始内容存档于2024-01-29) (英语).
- ^ An Introduction to PyTorch – A Simple yet Powerful Deep Learning Library. analyticsvidhya.com. 2018-02-22 [2018-06-11]. (原始内容存档于2019-10-22).
参见
[编辑]外部链接
[编辑]- 官方网站
- 从 GitHub 访问 PyTorch 教程 (页面存档备份,存于互联网档案馆)
- PyTorch基金会的Youtube账号 (页面存档备份,存于互联网档案馆)