Backpropagation paso a paso — Regresión (2 ocultas Sigmoide/ReLU → salida lineal)
Misma red y problema: ŷ = v₁·ϕ(w₁x+b₁) + v₂·ϕ(w₂x+b₂) + c. Mostramos
forward
, derivadas y gradientes.
puntos
curva predicha
residuos
L = (y − ŷ)² (MSE por muestra)
Backprop paso a paso
Modo batch (gradientes promedio)
Muestra