Introducción Al Perceptrón

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 4

INTRODUCCIÓN AL PERCEPTRÓN

El perceptrón es un algoritmo fundamental en el campo del aprendizaje automático y la


minería de datos. Surgió como una de las primeras formas de red neuronal artificial y ha
sentado las bases para el desarrollo de modelos más complejos en este dominio.

En su forma más básica, el perceptrón es un tipo de clasificador lineal binario. Su objetivo


principal es tomar un conjunto de datos de entrada y clasificarlos en dos categorías distintas.
Esta clasificación se logra mediante la aplicación de una función de activación a una
combinación lineal de los valores de entrada ponderados por ciertos pesos.

El proceso de entrenamiento del perceptrón implica ajustar estos pesos de manera iterativa a
través de un algoritmo de aprendizaje, como el algoritmo de descenso del gradiente. Durante
el entrenamiento, el perceptrón compara su salida con la salida esperada y ajusta los pesos en
consecuencia para reducir el error de clasificación.

Una de las limitaciones clave del perceptrón es su incapacidad para manejar conjuntos de
datos no linealmente separables. Sin embargo, esta limitación se ha abordado en gran medida
mediante el desarrollo de perceptrones multicapa y otros modelos de redes neuronales más
complejos.

ARQUITECTURA Y FUNCIONAMIENTO DEL PERCEPTRÓN

La arquitectura y el funcionamiento del perceptrón se basan en el modelo simplificado de una


neurona artificial.

Arquitectura del Perceptrón:

 Entradas (Inputs): El perceptrón recibe un conjunto de entradas, denotadas como


x 1 , x 2, … … x n . Estas entradas pueden representar características de un conjunto de
datos, como píxeles en una imagen o atributos en un conjunto de datos tabular.
 Pesos (Weights): Cada entrada x i está asociada con un peso w i. Los pesos indican la
importancia o contribución de cada entrada a la salida del perceptrón.
 Sumador Ponderado: El perceptrón realiza una suma ponderada de las entradas
multiplicadas por sus respectivos pesos. La suma ponderada se calcula como
z=w1 . x 1+ w2 . x2 +…+ w n . x n .
 Función de Activación: Después de la suma ponderada, la salida del perceptrón se
determina aplicando una función de activación f ( z ) . La función de activación
introduce no linealidad en la salida del perceptrón y puede ser una función escalón
(como la función escalón de Heaviside) o una función sigmoide.
 Salida (Output): La salida del perceptrón, denotada como Y , es el resultado de aplicar
la función de activación a la suma ponderada Z .
Funcionamiento del Perceptrón:

 Inicialización de Pesos: Los pesos del perceptrón se inicializan típicamente con valores
aleatorios o cercanos a cero.
 Paso de Evaluación (Forward Pass): Durante el paso de evaluación, el perceptrón
calcula la suma ponderada de las entradas multiplicadas por los pesos y luego aplica la
función de activación para producir la salida.
 Comparación con la Etiqueta Real: En el aprendizaje supervisado, la salida del
perceptrón se compara con la etiqueta real o deseada del conjunto de datos. Se calcula
el error, que es la diferencia entre la salida predicha y la salida deseada.
 Ajuste de Pesos (Learning): Para reducir el error, el perceptrón ajusta los pesos de
manera iterativa utilizando algoritmos de optimización como el algoritmo de descenso
del gradiente. El objetivo es minimizar una función de costo que cuantifica el error del
perceptrón.
 Iteración: El proceso de ajuste de pesos y evaluación se repite para múltiples ejemplos
del conjunto de datos hasta que el perceptrón converge a una solución que minimiza el
error.

ALGORITMO DE APRENDIZAJE DEL PERCEPTRÓN


El algoritmo de aprendizaje del perceptrón es un algoritmo de aprendizaje supervisado que
ajusta los pesos de las conexiones entre las neuronas para minimizar el error en la clasificación.

1. Inicialización de pesos: Se inicializan los pesos x 1 , x 2, … … x n aleatoriamente o con


valores cercanos a cero.
2. Para cada ejemplo de entrenamiento ( x , y ) :
´
 Se calcula la salida del perceptrón Y para el ejemplo de entrada X .
 Si Y ´ es igual a la etiqueta verdadera Y , no se realizan ajustes de peso y se pasa al
siguiente ejemplo.
 Si Y ´ es diferente de Y :
o Se ajustan los pesos de acuerdo con la regla de actualización del
perceptrón:
o w 1=w 1+∝ . ( y− y ´ ) . x1
o Donde ∝ es la tasa de aprendizaje que controla la magnitud de los ajustes.
3. Repetir el proceso: Se repite el proceso para todos los ejemplos de entrenamiento
hasta que se alcance un criterio de detención, como un número máximo de iteraciones
o cuando no hay más errores de clasificación en el conjunto de entrenamiento.

Este algoritmo se basa en la idea de ajustar los pesos de manera iterativa para minimizar el
error de clasificación. La regla de actualización del perceptrón modifica los pesos en función de
la diferencia entre la salida predicha y la salida verdadera, multiplicada por la entrada
correspondiente y la tasa de aprendizaje.
Es importante tener en cuenta que el perceptrón converge a una solución si los datos son
linealmente separables. Sin embargo, si los datos no son linealmente separables, el algoritmo
puede no converger, o puede converger a una solución subóptima. En esos casos, se pueden
utilizar variantes del perceptrón o modelos más complejos de redes neuronales.

Limitaciones del Perceptrón:

1. Linealmente Separable: El perceptrón solo puede clasificar conjuntos de datos que


sean linealmente separables. Esto significa que si las clases no pueden ser separadas
por una línea recta o un hiperplano, el perceptrón no podrá aprender una solución
adecuada.
2. No es Capaz de Aprender Comportamiento No Lineal: Debido a su naturaleza lineal, el
perceptrón no puede aprender comportamientos no lineales en los datos. Esto limita
su capacidad para resolver problemas más complejos que no pueden ser
representados linealmente.

Aplicaciones del Perceptrón:

1. Clasificación Binaria: El perceptrón es útil en problemas de clasificación binaria donde


se requiere separar las instancias en dos categorías distintas.
2. Implementación de Puertas Lógicas: En un contexto educativo y conceptual, el
perceptrón se utiliza para demostrar conceptos básicos de las redes neuronales y para
implementar puertas lógicas como AND, OR y NOT.
3. Preprocesamiento de Datos: Aunque el perceptrón simple tiene limitaciones en
términos de la complejidad de los problemas que puede abordar, puede ser útil en
etapas iniciales de preprocesamiento de datos, como la eliminación de instancias
claramente separables en conjuntos de datos.
4. Componente en Redes Neuronales Más Complejas: Aunque el perceptrón simple
tiene sus limitaciones, sirve como componente básico en redes neuronales más
complejas, como las redes neuronales multicapa (MLP), donde varias capas de
perceptrones están interconectadas para aprender representaciones más abstractas y
complejas de los datos.
BIBLIOGRAFÍA

Redes Neuronales Artificiales y sus Aplicaciones Redes Neuronales Artificiales y sus


Aplicaciones Xabier Basogain Olabe Formato Impreso: Publicaciones de la Escuela de
Ingenieros, 1998 Formato html: Campus Virtual-Material Docente-Curso RNA

Lastre Valdes, Marcia M., Arlys M. Lastre Aleaga y Gelmar García Vidal. "Redes
neuronales artificiales en la predicción de insolvencia. Un cambio de paradigma
ante recetas tradicionales de prácticas empresariales". Enfoque UTE 5, n.º 2 (30 de
junio de 2014): 38–58. http://dx.doi.org/10.29019/enfoqueute.v5n2.39

Pino Vargas, Edwin, Luís Siña Espino y Carmen Román Arce. "PRONÓSTICO DE
CAUDALES MEDIOS MENSUALES DEL RIO CAPLINA, APLICANDO REDES
NEURONALES ARTIFICIALES (RNA) Y MODELO AUTOREGRESIVO PERIÓDICO DE
PRIMER ORDEN PAR(1)". Prospectiva Universitaria 8, n.º 1 (15 de enero de 2022):
163–67. http://dx.doi.org/10.26490/uncp.prospectivauniversitaria.2011.8.1261.

También podría gustarte