Perceptron

January 17, 2019 | Author: Jeferson David Caiza Cruz | Category: Applied Mathematics, Areas Of Computer Science, Mathematics, Sicología y ciencia cognitiva, Cognitive Science
Share Embed Donate


Short Description

Informe Perceptron...

Description

UNIVERSIDAD POLITÉCNICA SALESIANA CARRERA: INGENIERIA EN SISTEMAS INFORME DE PROYECTO ASIGNATURA: INTELIGENCIA ARTIFICIAL II TEMA: PERCEPTRON INTEGRANTES: WILLIAM CRUZ HENRY BARRAGÁN

FECHA: 2014/11/11

TABLA DE CONTENIDO 1.

OBJETIVO GENERAL   .............................................................................................................. 3

2.

OBJETIVOS ESPECIFICOS  ...................................................................................................... 3

3.

ALCANCE  .................................................................................................................................. 3

4.

FUNDAMENTO TEÓRICO ....................................................................................................... 3

5.

RESULTADOS  ........................................................................................................................... 7

6.

CONCLUSIONES Y RECOMENDACIONES .......................................................................... 7

7.

BIBLIOGRAFIA  ......................................................................................................................... 8

1. OBJETIVO GENERAL Realizar y programar un algoritmo de aprendizaje del perceptrón de la función de la compuerta lógica OR.

2. OBJETIVOS ESPECIFICOS   

Determinar la fórmula de cálculo de la red neuronal del perceptron de la función de la compuerta lógica OR. escribir las formulas de actualización de los pesos en general escribir los algoritmos que permita el aprendizaje del perceptrón .

3. ALCANCE Programar un algoritmo el cual permita el aprendizaje del perceptron con la finalidad de adquirir nuevos conocimientos que pueden ser muy útiles en un futuro.

4. FUNDAMENTO TEÓRICO INTRODUCCION El Perceptrón dentro del campo de las redes neuronales tiene dos acepciones. Puede referirse a un tipo de  red neuronal artificial desarrollado por Frank Rosenblatt.Y dentro de la misma teoría de  Frank Rosenblatt.  También puede entenderse como la  neurona artificial y unidad básica de inferencia en forma de discriminador lineal, es decir, un algoritmo capaz de generar un criterio para seleccionar un sub-grupo, de un grupo de componentes más grande. La limitación de este algoritmo es que si dibujamos en un plot estos elementos, se deben poder separar con un hiperplano los elementos "deseados" de los "no deseados". El perceptrón puede utilizarse con otros perceptrones u otro tipo de neurona artificial, para formar redes neuronales más complicadas.

MARCO TEÓRICO PERCEPTRON El modelo biológico más simple de un perceptrón es una neurona y viceversa. Es decir, el modelo matemático más simple de una neurona es un perceptrón. La neurona es una célula especializada y caracterizada por poseer una cantidad indefinida de canales de entrada llamados dendritas y un canal de salida llamado axón. Las dendritas operan como sensores que recogen información de la región donde se hallan y la derivan hacia el cuerpo de la neurona que reacciona mediante una sinapsis que envía una respuesta hacia el cerebro, esto en el caso de los seres vivos. Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa en la medida en que se asocia a otras neuronas, formando una red. Normalmente, elaxón de una neurona entrega su información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que capta la señal en adelante se entiende formando una red de neuronas, sean éstas  biológicas o de sustrato semiconductor (compuertas lógicas). El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada (un vector  binario) a un único valor de salida través de dicha matriz.

(un solo valor binario) a

Donde es un vector de pesos reales y es el producto punto (que computa una suma  ponderada). es el 'umbral', el cual representa el grado de inhibición de la neurona, es un término constante que no depende del valor que tome la entrada. El valor de (0 o 1) se usa para clasificar como un caso positivo o un caso negativo, en el caso de un problema de clasificación binario. El umbral puede pensarse de cómo compensar la función de activación, o dando un nivel bajo de actividad a la neurona del rendimiento. La suma  ponderada de las entradas debe producir un valor mayor que para cambiar la neurona de estado 0 a 1. [1].

Limitantes El perceptrón es capaz tan sólo de resolver funciones definidas por un hiperplano (objeto de dimensión N-1 contenida en un espacio de dimensión N). que corte un espacio de dimensión N. Un ejemplo de una función que no puede ser resuelta es el operador lógico XOR. Una explicación más sencilla de un hiperplano sería, hablando en un plano de dos dimensiones, una línea que separa a los elementos existentes en dos grupos. El perceptrón sólo puede resolver una función, si todos los posibles resultados del problema pueden separarse de ésta forma (en dos secciones) es decir, que no se combinen entre sí. [2]

Aprendizaje En el perceptrón, existen dos tipos de aprendizaje, el primero utiliza una tasa de aprendizaje mientras que el segundo no la utiliza. Esta tasa de aprendizaje amortigua el cambio de los valores de los pesos. [1] El algoritmo de aprendizaje es el mismo para todas las neuronas, todo lo que sigue se aplica a una sola neurona en el aislamiento. Se definen algunas variables primero:     

el el el el el

denota el elemento en la posición en el vector de la entrada el elemento en la posición en el vector de peso denota la salida de la neurona denota la salida esperada es una constante tal que

Tipos de perceptrón El Perceptrón básico de dos capas (entrada con neuronas lineales, analógicas, y la de salida con función de activación de tipo escalón, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendría un hiperplano. Un Perceptrón con tres niveles de neuronas puede formar cualquier región convexa en este espacio. Las regiones convexas se forman mediante la intelección entre las regiones formadas por cada

neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrón simple, activándose su salida para los patrones de un lado del hiperplano. Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente complejas. El  proceso de separación en clases que se lleva a cabo consiste en la partición de la región deseada en  pequeños hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el número de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lógico de la salida de los nodos del nivel anterior. La salida de los nodos de este tercer nivel se activaran solo para las entradas de cada hipercubo. Los hipercubos se asignan a la región de decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que este comprendido el hipercubo llevándose a cabo una operación lógica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos. En teoría, el Perceptrón de 4 capas puede resuelve una gran variedad de problemas cuyas entradas sean analógicas, la salida sea digital y sea linealmente separable. El problema práctico radica en el numero de neuronas, en el numero idóneo de capas ocultas, la extensión de la función de activación, el tiempo de entrenamiento de la red, las implicaciones en la generación de ruido (al tener un número excesivo de neuronas) en contraparte con la ventaja de tener un sistema tolerante a fallas al tener un numero de neuronas redundante. [2]

Aplicaciones del perceptrón El rango de tareas que el Perceptrón puede manejar es mucho mayor que simples decisiones y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para formar el tiempo pasado de los verbos en ingles, leer texto en ingles y manuscrito. El Perceptrón multicapa (MLP) puede ser usado para la predicción de una serie de datos en el tiempo; tal a sido su éxito en la medición de la demanda de gas y electricidad, además de la predicción de cambios en el valor de los instrumentos financieros. Predicción de mercados financieros, diagnósticos médicos, el Perceptrón como una red codificadora, el Perceptrón aprende a sumar enteros.  NETtalk es un Perceptrón que es capaz de transformar texto en ingles en sonido individual (representaciones fonéticas) y la pronunciación con la utilización de un sintetizador de voz; cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en la capa escondida) y 20,000 conexiones individuales. [2]

5. RESULTADOS

6.

CONCLUSIONES Conclusiones El modelo del perceptrón se basa en la corrección numérica a partir del error encontrado en la salida que proporciona, esto es la definición del error absoluto para un procedimiento, que se define como la diferencia entre el valor verdadero y el valor obtenido, esto demuestra que la teoría del error es aplicada en el algoritmo del perceptrón. Debido a que el perceptrón puede usarse como una aproximación de un procedimiento matemático, se generan errores de truncamiento en su procedimiento, de este modo existe el error y su tratamiento en su procedimiento, con el fin de obtener la aproximación más exacta al valor real que se quiere obtener.

7. BIBLIOGRAFIA

[1] Wikipedia, «Wikipedia,» 27 10 2014. [En línea]. Available: http://es.wikipedia.org/wiki/Perceptr%C3%B3n. [Último acceso: 11 11 2014]. [2] T. internet, «TREC internet,» Redes Neurales Artificiales, 21 10 2010. [En línea]. Available: http://electronica.com.mx/neural/informacion/perceptron.html. [Último acceso: 11 11 2014].

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF