跳到主要内容

Pytorch 激活函数


PyTorch中已经实现了神经网络中可能用到的各种激活函数,我们在代码中只要直接调用即可。

一、Sigmoid 激活函数

Sigmoid函数将输入映射到0到1之间,常用于二分类任务的输出层。

image-20251019164321574


二、Tanh 函数

双曲正切函数(Tanh)将输入映射到-1到1之间,常用于隐藏层。

image-20251019164808332


三、Relu 函数

ReLU(Rectified Linear Unit)函数在输入大于0时输出输入值,否则输出0,是目前最常用的激活函数。

注意:x=0时,ReLU函数的导数是不可导的,但在实际应用中通常将其定义为0或1。

image-20251019165459487


四、Softmax 函数

Softmax函数将输入向量转换为概率分布,常用于多分类任务的输出层。

image-20251019165643942