博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
ML:激活函数和损失函数
阅读量:4060 次
发布时间:2019-05-25

本文共 538 字,大约阅读时间需要 1 分钟。

激活函数为了去线性化

  • sigmoid

sigmoid 在0.5附近解空间太大,熵垒,俗称梯度大平原,很难跳出。

优点,用于表达概率,例如DBN,RNN,LSTM中的一些gate是不能将sigmoid换成relu,这样概率表达都错了。

  • tanh

tanh解空间比sigmoid小,解空间比relu大,事实上,一定区间的解空间大小决定了,当值落入该区间跳出当难易程度。

  • ReLu
    max(0,x)

缓和梯度消失问题,relu不像sigmoid没有一个梯度衰减的尾巴,强度上不封顶,使得反向传播过程只有权重的乘积带来的梯度衰减。然而,一些网络可能需要clip掉梯度,避免不封顶的爆炸梯度回传。

稀疏度问题,relu的稀疏机理同dropout机理不一样,dropout等效于动态L2规范带来的稀疏,是通过打压W来实现稀疏。

relu稀疏是因为如果输入为0,输出也会为零。

初始化不好一样饱和。

  • leaky ReLu

max(ax,x)

通常a = 0.01

参考:

损失函数为了修正参数:

交叉熵损失函数:

两个概率分布在同一潜在事件集(定义域)下对交叉熵度量,分布Q的最优化编码来对分布P的样本进行编码所使用的编码平均位数。

H(P,Q) = sum(P(x)*log(Q(x)))

转载地址:http://wywji.baihongyu.com/

你可能感兴趣的文章
java学习(15)泛型
查看>>
java学习(16)异常处理
查看>>
java学习(17)图形用户界面(1)
查看>>
java学习(18)图形用户界面(2)
查看>>
java学习(19)图形用户界面(3)
查看>>
java学习(20)图形用户界面(4)
查看>>
java学习(21)事件处理机制(1)
查看>>
java学习(22)线程(1)
查看>>
Python学习一之环境配置
查看>>
Python学习二之PyCharm编程软件配置
查看>>
Python学习三之基础语法
查看>>
【opencv学习笔记】022之霍夫圆变换
查看>>
【积跬步以至千里】合并优盘分区
查看>>
【opencv学习笔记】023之像素重映射
查看>>
【opencv学习笔记】024之直方图均衡化
查看>>
【opencv学习笔记】025之直方图计算 - calcHist函数详解
查看>>
【积跬步以至千里】win10应用商店误删恢复
查看>>
【吴恩达机器学习笔记】001 什么是机器学习(What is Machine Learning)
查看>>
【吴恩达机器学习笔记】002 监督学习(Supervised Learning)
查看>>
【吴恩达机器学习笔记】003 无监督学习(Unsupervised Learning)
查看>>