11111111111

222222222222222

google能用的软件=谷歌有什么app(可以用谷歌的软件)

  雷锋网按:本文作者夏飞,清华大学计算机软件学士,卡内基梅隆大学人工智能硕士。现为谷歌软件工程师。本文首发于知乎,雷锋网(公众号:雷锋网)获授权转载。

  

  TLDR (or the take-away)

  优先使用ReLU (Rectified Linear Unit) 函数作为神经元的activation function:

  背景

  深度学习的基本原理是基于人工神经网络,信号从一个神经元进入,经过非线性的activation function,传入到下一层神经元;再经过该层神经元的activate,继续往下传递,如此循环往复,直到输出层。正是由于这些非线性函数的反复叠加,才使得神经网络有足够的capacity来抓取复杂的pattern,在各个领域取得state-of-the-art的结果。显而易见,activation function在深度学习中举足轻重,也是很活跃的研究领域之一。目前来讲,选择怎样的activation function不在于它能否模拟真正的神经元,而在于能否便于优化整个深度神经网络。

<< 1 >>

Powered By Z-BlogPHP 1.7.4

Copyright Your WebSite.Some Rights Reserved.