Ir al contenido principal

REDES NEURONALES ARTIFICIALES


Redes Neuronales Inteligencia Artificial
Historia de las Redes Neuronales:


1936: 1936 Alan Turing estudio el cerebro como una forma de ver el mundo de la computación.
1943: Warren McCulloch un neurofisiólogo y Walter Pitts un matemático crearon una teoría sobre la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
1949: Donald Hebb  expuso una idea, la cual  fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales. Escribió un importante libro en el que explicaba los procesos del aprendizaje desde un punto de vista psicológico.

1950: Karl Lashley trabajo el almacenamiento no centralizado, sino distribuido.
1954: Marvin Minsky dio el primer resultado de 40 neuronas trabajando aprendizaje hebbiano.
1956: 1°Congreso científico sobre redes neuronales.


1957: Frank Rosenblatt desarrolla el Perceptrón, Esta es la red neuronal más antigua utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.
1959: crea los principios de la neurodinamica
1960: Widfroff crea junto a Warcian Huff el modeki adaline.

1969: Marvin Minsky y Seymour Papert probaron (matemáticamente) que el Perceptrón no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
1986: David Rumelhart y G. Hinton redescubrieron el algoritmo de aprendizaje de propagación hacia atrás backpropagation.

DEFINICIÓN: Para obtener una definición de red neuronal tenemos que hacer uso del concepto matemático de grafo. A través de este término, podemos definir una red neuronal de la siguiente forma:

Una red neuronal es un grafo dirigido con las siguientes propiedades:

  •  A cada nodo i se le asocia un variable de estado X.
  •  A cada conexión (i, j) de los nodos i y j se el asocia un peso WIJ.
  •  A cada nodo i se le asocia un umbral 0I.
  •   Para cada nodo i se define una función Fi(Xj, Wij, 0i) , que depende de los pesos de sus conexiones, del umbral y de los estados de los nodos j a él conectados. Esta función proporciona el nuevo estado del nodo. 



TIPOS:
  •  MONOCAPA: Se corresponde con la red neuronal más sencilla ya que se tiene una capa de neuronas que proyectan las entradas a una capa de neuronas de salida donde se realizan los diferentes cálculos. 


  • MULTICAPA: Es una generalización de la anterior, existiendo un conjunto de capas intermedias entre la capa de entrada y la de salida (capas ocultas). Este tipo de red puede estar total o parcialmente conectada.





  • RECURRENTE: Este tipo de red se diferencia de las anteriores en la existencia de lazos de realimentación en la red. Estos lazos pueden ser entre neuronas de diferentes capas, neuronas de la misma capa o, entre una misma neurona. Esta estructura la hace especialmente adecuada para estudiar la dinámica de los sistemas no lineales.




FUNCIÓN DE ACTIVACIÓN:

Las funciones de activación son una idea tomada de la Biología y que trata de generalizar el hecho de que las neuronas biológicas no son sumadores y transmisores de impulsos, sino que tienen un mecanismo que decide si se activan o no, en función de la entrada que reciben. Es al activarse cuando envían una señal a través de su axón a otras neuronas que la siguen en la cadena de procesamiento.



ARQUITECTURA:

Se denomina arquitectura a la topología o estructura en la que las distintas neuronas constituyentes de la red neuronal se asocian. En un ANS, los nodos se conectan por medio de sinapsis; esta estructura de conexiones sinápticas determina el comportamiento de la red. Las conexiones sinápticas son direccionales, es decir, la información sólo puede fluir en un sentido (desde la neurona presináptica a la neurona postsináptica).

En general, las neuronas se suelen agrupar en unidades estructurales denominadas capas. Dentro de una capa las neuronas pueden agruparse formando grupos neuronales. Dentro de una misma capa o agrupación, las neuronas suelen ser del mismo tipo. El conjunto de una o más capas constituye una red neurona.l.

Podemos distinguir tres tipos de capas: 

  • Capa de entrada: compuesta por neuronas que reciben datos o señales procedentes del entorno.
  • Capa de salida: aquella cuyas neuronas proporcionan la respuesta de la red neuronal.
  • Capa oculta: aquella que no tiene una conexión directa con el entorno.







Las conexiones entre las neuronas pueden ser excitatorias o inhibidoras, según el signo del peso sináptico asociado a la conexión. Si dicho peso sináptico es negativo, entonces tendremos una conexión inhibitoria, si por el contrario éste es positivo estaremos frente a una conexión excitatoria. Esta distinción no suele usarse demasiado, ya que el peso y su magnitud vendrán determinados en cada instante por el algoritmo de entrenamiento.
Las conexiones pueden clasificarse también en conexiones intracapa  y conexiones intercapa. Las primeras se corresponden con las conexiones entre las neuronas de una misma capa y, la segunda se corresponde a las conexiones entre neuronas de distintas capas.


Ejemplo:

RECONOCIMIENTO DE ROSTROS MEDIANTE UNA ARQUITECTURA  BASADA EN REDES NEURONALES

Las redes neuronales son una herramienta matemática que permite la solución de una gran variedad de problemas, en particular aquellos de difícil modelado. En este trabajo se presenta una arquitectura basada en redes neuronales para la identificación de rostros. La arquitectura está formada de varios clasificadores cada uno compuesto, a la vez, de una red neuronal estándar tipo ART2 conectada a un Mapa de Memoria (MM). Las salidas de los diferentes clasificadores están conectadas a un sumador común (registro de evidencias) y a un conjunto de comparadores permitiendo la fusión de datos. Se prueba el desempeño de la arquitectura con un conjunto limitado de diez rostros.


En la anterior imagen se ve la arquitectura implementada para el reconocimiento de rostros


Comentarios

Entradas populares de este blog

TALLER SEMANTICA

Ejercicio: I. Responder las siguientes preguntas. 1.      Explique cada una de las componentes de las redes semánticas 2.      Cuales son las ventajas y desventajas del uso de RS como forma de RC. 3.      Señale la importancia del manejo de herencia en RS 4.      Para que y como se utiliza la operación de confrontación. Explique con un ejemplo. II. Represente utilizando redes semánticas el siguiente conocimiento. ·         Los platelmintos, son animales de simetría bilateral, cuerpo aplanado y vida parasitaria. ·         Los moluscos son animales con simetría bilateral cuerpo blando y vida marina ·         Los artrópodos son animales con simetría bilateral, cuerpo anillado y vida acuática y terrestre ·         Los phylum cordados son del reino anima...

BUSQUEDA HEURISTICA POR COSTO UNIFORME Y HEURISTICA PURA

TORRES DE HANOI: En la imagen se muestra el grafo de la solución, se señala la mejor solución con color morado.   HANOI COSTO UNIFORME LISTA NODO SUCESORES I I II(1), III(2) II(1), III(2) II(1) IV(2+1) III(2), IV(3) III(2) V(1+2) IV(3), V(3) IV(3) VI(1+3), VII(1+3) V(3), VI(4), VII(4) V(3) VIII(3+2), IX(3+1) VI(4), VII(4), VIII(5), IX(4) VI(4) STOP VII(4), VIII(5), IX(4) VII(4) VI(4+2), VIII(4+1) VIII(5), IX(4), VI(6), VIII(5) IX(4) VIII(4+1) VIII(5), VI(6), VIII(5), VIII(5) VIII(5) VII(5+1) VIII(5), VI(6), VIII(5), VII(6) VIII(5) VII(5+1) VI(6), VIII(5), VII(6), VII(6) VIII(5) IX(5+1) VI(6),VII(6), VII(6), IX(6) VI(6) STOP VII(6...

TALLER PROFUNDIDAD - AMPLITUD ITERATIVA

1 . Para el grafo usted deberá llegar de A a H aplicando los algoritmos: A. Interactive Debending (I D) Búsqueda profundización iterativa. B. Amplitud iterativa. 2. Explicar: A. El pseudocodigo de los algoritmos anteriores. B. Su complejidad exponencial y temporal (mejor caso, peor caso, caso medio). C. ¿Es Completo? Justifique su respuesta. D. ¿Es Optimo? Justifique su respuesta. SOLUCIÓN: 1.El problema con exigir un límite de profundidad, está precisamente en escoger un límite adecuado. Profundidad iterativa va aumentando gradualmente la profundidad hasta encontrar una meta. Es óptimo y completo. PRUEBA DE ESCRITORIO. AMPLITUD ITERATIVA: PSEUDOCODIGOS: Búsqueda en profundidad iterativa (límite: entero)   prof=1; Est_abiertos.inicializar()   Mientras  no es_final?(Actual) y prof<limite hacer     Est_abiertos.insertar(Estado inicial)     Actual= Est_abierto...