Funkcyjo ReLU

Ze testwiki
Wersyjo ze dnia 21:47, 17 mar 2024 autorstwa imported>Krol111
(rōżn.) ← starszŏ wersyjŏ | Terŏźnŏ wersyjŏ (rōżn.) | Nastympnŏ wersyjŏ → (rōżn.)
Pōdź do nawigacyje Pōdź do wyszukiwanio
Graficzno reprezentacyjo funkcyje

Funkcyjo ReLU, tyż mjanowano Rectifier - zorta aktywacyjnyj funkcyje we neuronowych necach. Dowo uůna wert 0 lo argumyntu majszego jak 0, a we inkszym przipadku uoddowo przidany wert. Używano m. in. we necach zbajstlowanych do rozpoznawańo mowy[1]. Matymatyczno definicyjo to je:

f(x)=x+=max(0,x)=x+|x|2={xeli x>0,0we inkszym przipadku.

Pochodno uod funkcyje ReLU:

f(x)={1eli x>0,0eli x<0.

Muster:Przipisy

  1. Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models