当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python torch.nn.PReLU用法及代码示例

用法:

class torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)

参数

  • num_parameters(int) - 要学习的数量。尽管它需要一个 int 作为输入,但只有两个值是合法的:1,或输入的通道数。默认值:1

  • init(float) - 的初始值。默认值:0.25

变量

~PReLU.weight(Tensor) -形状的可学习权重(num_parameters)。

应用逐元素函数:

或者

这里 是一个可学习的参数。当不带参数调用时,nn.PReLU() 在所有输入通道中使用单个参数 。如果使用 nn.PReLU(nChannels) 调用,则每个输入通道使用单独的

注意

在学习 以获得良好性能时,不应使用权重衰减。

注意

Channel dim 是输入的第二个 dim 。当输入的 dims < 2 时,则没有通道 dim ,并且通道数 = 1。

形状:
  • 输入: 其中 * 表示任意数量的附加维度。

  • 输出:,与输入的形状相同。

PReLU.png

例子:

>>> m = nn.PReLU()
>>> input = torch.randn(2)
>>> output = m(input)

相关用法

注:本文由堆栈答案筛选整理自pytorch.org大神的英文原创作品 torch.nn.PReLU。非经特殊声明,原始代码版权归原作者所有,本译文的传播和使用请遵循“署名-相同方式共享 4.0 国际 (CC BY-SA 4.0)”协议。