0%

30激活函数

30 激活函数

30.1 Activation functions

sigmoid函数总是表现要比 tanh双曲正切函数要好一点,这是因为它的值域在 [-1, 1] 之间,激活函数的平均值是 0, 你可能需要平移所有数据,让数据平均值为 0, 使用 tanh 而不是 sigmoid 也有类似于庶几乎中心化的效果

它们均有的缺点是,当向两边无限延申的时候,他俩的斜率都非常地小,这会拖慢梯度下降法。

经验法则:当你二分类地时候,最好使用 sigmoid 函数,其他默认选择 ReLU 或者 leakyReLU

image-20231220221439273

30.2 Pros and cons of activation functions

image-20231220221626024

30.3 Why use activation function?

image-20231220222203072

30.4 Sigmoid activation function

image-20231221122649209

image-20231221122835804

image-20231221123025173