Algorisme del gradient estocàstic
Aparença
L'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteratiu per a optimitzar una funció objectiu derivable. S'anomena estocàstic perque les mostres se seleccionen aleatòriament en comptes d'un ordre predeterminat. Va ser desenvolupat per Herbert Robbins i Sutton Monro l'any 1951.[1][2][3]
Aplicacions
[modifica]Referències
[modifica]- ↑ «Reducing Loss: Stochastic Gradient Descent | Machine Learning Crash Course | Google Developers» (en anglès). https://developers.google.com.+[Consulta: 14 novembre 2018].[Enllaç no actiu]
- ↑ «Difference between Batch Gradient Descent and Stochastic Gradient Descent». Towards Data Science, 21-09-2017.
- ↑ «A Newbie's Guide to Stochastic Gradient Descent With Restarts». Towards Data Science, 20-07-2018.