Es un tipo de red neural artificial. También puede entenderse como perceptrón la
neurona artificial y unidad básica de inferencia en forma de discriminador lineal. Éste consiste en una suma de las señales de entrada, multiplicadas por unos valores de pesos escogidos inicialmente en forma aleatoria. En una fase en la que éste aprende, la entrada se compara con un patrón preestablecido para determinar la salida de la red. Si en la comparación la suma de las entradas multiplicadas por los pesos es mayor o igual que el patrón preestablecido, la salida de la red es uno (1); en caso contrario la salida es cero (0). El perceptrón es un dispositivo que, en su configuración inicial, no está en capacidad de distinguir patrones de entrada muy complejos, sin embargo, mediante un proceso de aprendizaje es apto para adquirir esta capacidad. En esencia, el entrenamiento implica un proceso de refuerzo a través del cual los pesos que codifican las sinapsis se incrementan o se disminuyen. En la figura 2 se representa una neurona “artificial”, la cual intenta modelar el comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de los estímulos externos zj, seguida de una función no lineal yj 5 f (zj). La función f (zj) es llamada la función de activación y es la función que utiliza la suma de estímulos para determinar la actividad de salida de la neurona. Este modelo es la base de la mayoría de las arquitecturas de las RNA que se interconectan entre sí. Las neuronas emplean funciones de activación diferentes según la aplicación. Algunas veces son funciones lineales, otras son funciones sigmoidales (por ejemplo, la tanh x) y otras son funciones de umbral de disparo. La eficiencia sináptica se representa por factores de peso de interconexión wij , desde la neurona i hasta la neurona j. Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos junto con las funciones f (z) dictan la operación de la red neural. Normalmente las funciones no se modifican de tal manera que el estado de la red neural depende del valor de los factores de peso (sinapsis) que se aplica a los estímulos de la neurona. En un perceptrón, cada entrada se multiplica por el peso w correspondiente y los resultados se suman, siendo evaluados contra el valor de umbral; si el resultado es mayor al mismo, el perceptrón se activa. El perceptrón sólo es capaz de resolver funciones defi nidas por dos dimensiones. Un ejemplo de una función que no puede ser resuelta es el operador lógico. El entrenamiento de un perceptrón es por medio de la regla de aprendizaje delta: Para cada peso w se realiza un ajuste dw según la regla: dw = η(x - Y)X Donde η es la razón de aprendizaje, y el valor deseado, Y el valor obtenido y X la entrada aplicada al perceptrón. Figura 2. Estructura del perceptrón, la más simple en las RNA. Es un discriminador binario lineal y puede ser entrenado para mejorar su desempeño. Las entradas de la neurona (5A), los pesos aleatorios (5B), la sumatoria de la multiplicación de los pesos por sus respectivas entradas (5C) y la salida que es el cálculo de todos los pesos y sus entradas (5D).