Backpropagation paso a paso — Regresión (2 ocultas Sigmoide/ReLU → salida lineal)

Misma red y problema: ŷ = v₁·ϕ(w₁x+b₁) + v₂·ϕ(w₂x+b₂) + c. Mostramos forward, derivadas y gradientes.
puntos curva predicha residuos L = (y − ŷ)² (MSE por muestra)
Backprop paso a paso