Backpropagation

File0.7722137241869813.png

Es un algoritmo fundamental utilizado para entrenar redes neuronales artificiales ajustando los pesos de las conexiones sinápticas en base al error obtenido en la predicción.

El proceso se basa en la propagación del error desde la salida de la red hacia las capas internas, calculando gradientes para optimizar los parámetros utilizando técnicas como el descenso por gradiente.

El objetivo principal es minimizar una función de pérdida que mide la diferencia entre las predicciones de la red y los valores reales esperados.

Se desarrolla en dos fases: la propagación directa, donde los datos se mueven desde la entrada hasta la salida, y la retropropagación, en la que el error se transmite hacia atrás en la red.

Este método requiere que las funciones de activación sean derivables para calcular los gradientes parciales de manera eficiente.

Es fundamental en los avances modernos de deep learning por su capacidad para entrenar modelos complejos y profundos con múltiples capas.

Subir