康行天下 2017-10-13 22:56
阅读:4880
评论:1
推荐:0
阅读排行榜
- 1. 非极大值抑制(Non-Maximum Suppression,NMS)(209962)
- 2. 目标检测网络之 YOLOv3(204978)
- 3. 激活函数(ReLU, Swish, Maxout)(110556)
- 4. Dropout(33700)
- 5. Linux下的wine生活(QQ/微信/Office)(29859)
- 6. 目标检测评价指标(mAP)(27995)
- 7. 神经网络之权重初始化(18130)
- 8. 深度学习网络层之 Batch Normalization(17724)
- 9. linux ipv6临时地址(17201)
- 10. python之简单POST模拟登录(17002)
- 11. 深度学习网络层之上采样(Unpooling)(15293)
- 12. 深度学习网络层之 Pooling(14751)
- 13. Docker 及 nvidia-docker 使用(13595)
- 14. 深度学习-conv卷积(11890)
- 15. 偏差方差分解(11152)
- 16. NIN (Network In Network)(10443)
- 17. 深度学习基础网络 ResNet(10248)
- 18. Java 使用 Enum 实现单例模式(9159)
- 19. 坐标下降 vs 梯度下降(8353)
- 20. log4j配置文件加载(8336)
最新评论
- 1. Re:搜索排序算法
- @Libra—— 感谢指正,确实应该是e^{O_xy}...
- --康行天下
- 2. Re:搜索排序算法
感谢楼主的整理,受益匪浅!
但是,在 RankNet 部分中的交叉熵损失函数的公式(4)中最后那个 O_xy,是不是搞错了,应该是 e^{O_xy}?- --Libra——
- 3. Re:激活函数(ReLU, Swish, Maxout)
非常详细
- --佳讯
- 4. Re:语言模型变形金刚
我看懂的,真的!
- --goodcitizen
- 5. Re:语言模型大串烧之变形金刚
不明觉厉
- --kingdumpling