Activación (Funciones de Activación)

En el contexto de la inteligencia artificial y el aprendizaje automático, son funciones matemáticas utilizadas dentro de las redes neuronales para determinar la salida de una neurona en función de las entradas recibidas.
Permiten introducir no linealidad en el modelo, lo que es fundamental para que la red neuronal sea capaz de aprender patrones complejos y resolver problemas no lineales.
Estas funciones transforman la suma ponderada de las entradas en un valor escalado, que puede estar acotado o no, dependiendo del tipo de función seleccionada.
Existen diferentes tipos, como la función sigmoide, ReLU (Rectified Linear Unit), tangente hiperbólica (tanh), y softmax, entre otras, cada una con características y ventajas específicas según el caso de uso.
La elección de la función adecuada impacta directamente en el rendimiento, la velocidad de entrenamiento y la capacidad del modelo para generalizar en datos no vistos.