Formlen for tilbagepropagation kan udtrykkes som:
```
∂E/∂w =(∂E/∂y) * (∂y/∂w)
```
hvor:
- E er netværkets fejl
- y er output fra netværket
- w er vægten af en forbindelse i netværket
Formlen beregner den partielle afledte af fejlen med hensyn til vægten, som fortæller netværket, hvor meget fejlen vil ændre sig, hvis vægten ændres med en lille mængde. Formlen beregner også den partielle afledte af output med hensyn til vægten, som fortæller netværket, hvor meget outputtet vil ændre sig, hvis vægten ændres med en lille mængde.
Netværket bruger disse to partielle derivater til at beregne den passende justering for vægten. Målet er at justere vægtene, så netværkets fejl minimeres, hvilket betyder, at netværket klarer sig godt på den givne opgave.
Backpropagation er en kraftfuld læringsalgoritme, der gør det muligt for neurale netværk at lære af deres fejl og gradvist forbedre deres ydeevne.