Introducción Al Perceptrón
Introducción Al Perceptrón
Introducción Al Perceptrón
El proceso de entrenamiento del perceptrón implica ajustar estos pesos de manera iterativa a
través de un algoritmo de aprendizaje, como el algoritmo de descenso del gradiente. Durante
el entrenamiento, el perceptrón compara su salida con la salida esperada y ajusta los pesos en
consecuencia para reducir el error de clasificación.
Una de las limitaciones clave del perceptrón es su incapacidad para manejar conjuntos de
datos no linealmente separables. Sin embargo, esta limitación se ha abordado en gran medida
mediante el desarrollo de perceptrones multicapa y otros modelos de redes neuronales más
complejos.
Inicialización de Pesos: Los pesos del perceptrón se inicializan típicamente con valores
aleatorios o cercanos a cero.
Paso de Evaluación (Forward Pass): Durante el paso de evaluación, el perceptrón
calcula la suma ponderada de las entradas multiplicadas por los pesos y luego aplica la
función de activación para producir la salida.
Comparación con la Etiqueta Real: En el aprendizaje supervisado, la salida del
perceptrón se compara con la etiqueta real o deseada del conjunto de datos. Se calcula
el error, que es la diferencia entre la salida predicha y la salida deseada.
Ajuste de Pesos (Learning): Para reducir el error, el perceptrón ajusta los pesos de
manera iterativa utilizando algoritmos de optimización como el algoritmo de descenso
del gradiente. El objetivo es minimizar una función de costo que cuantifica el error del
perceptrón.
Iteración: El proceso de ajuste de pesos y evaluación se repite para múltiples ejemplos
del conjunto de datos hasta que el perceptrón converge a una solución que minimiza el
error.
Este algoritmo se basa en la idea de ajustar los pesos de manera iterativa para minimizar el
error de clasificación. La regla de actualización del perceptrón modifica los pesos en función de
la diferencia entre la salida predicha y la salida verdadera, multiplicada por la entrada
correspondiente y la tasa de aprendizaje.
Es importante tener en cuenta que el perceptrón converge a una solución si los datos son
linealmente separables. Sin embargo, si los datos no son linealmente separables, el algoritmo
puede no converger, o puede converger a una solución subóptima. En esos casos, se pueden
utilizar variantes del perceptrón o modelos más complejos de redes neuronales.
Lastre Valdes, Marcia M., Arlys M. Lastre Aleaga y Gelmar García Vidal. "Redes
neuronales artificiales en la predicción de insolvencia. Un cambio de paradigma
ante recetas tradicionales de prácticas empresariales". Enfoque UTE 5, n.º 2 (30 de
junio de 2014): 38–58. http://dx.doi.org/10.29019/enfoqueute.v5n2.39
Pino Vargas, Edwin, Luís Siña Espino y Carmen Román Arce. "PRONÓSTICO DE
CAUDALES MEDIOS MENSUALES DEL RIO CAPLINA, APLICANDO REDES
NEURONALES ARTIFICIALES (RNA) Y MODELO AUTOREGRESIVO PERIÓDICO DE
PRIMER ORDEN PAR(1)". Prospectiva Universitaria 8, n.º 1 (15 de enero de 2022):
163–67. http://dx.doi.org/10.26490/uncp.prospectivauniversitaria.2011.8.1261.