Redes Neuronales
Inteligencia Artificial
Historia de las Redes
Neuronales:
1936: 1936 Alan Turing
estudio el cerebro como una forma de ver el mundo de la computación.
1943: Warren McCulloch
un neurofisiólogo y Walter Pitts un matemático crearon una teoría sobre la
forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple
mediante circuitos eléctricos.
1949: Donald Hebb expuso una idea, la cual fue que el aprendizaje ocurría cuando ciertos
cambios en una neurona eran activados. Los trabajos de Hebb formaron las bases
de la Teoría de las Redes Neuronales. Escribió un importante libro en el que
explicaba los procesos del aprendizaje desde un punto de vista psicológico.
1950: Karl Lashley
trabajo el almacenamiento no centralizado, sino distribuido.
1954: Marvin Minsky dio
el primer resultado de 40 neuronas trabajando aprendizaje hebbiano.
1956: 1°Congreso
científico sobre redes neuronales.
1957: Frank Rosenblatt
desarrolla el Perceptrón, Esta es la red neuronal más antigua utilizándose hoy
en día para aplicación como reconocedor de patrones. Este modelo era capaz de
generalizar, es decir, después de haber aprendido una serie de patrones podía
reconocer otros similares, aunque no se le hubiesen presentado anteriormente.
Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para
resolver el problema de la función OR-exclusiva y, en general, era incapaz de
clasificar clases no separables linealmente.
1959: crea los
principios de la neurodinamica
1960: Widfroff crea
junto a Warcian Huff el modeki adaline.
1969: Marvin Minsky y
Seymour Papert probaron (matemáticamente) que el Perceptrón no era capaz de
resolver problemas relativamente fáciles, tales como el aprendizaje de una
función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que las
funciones no-lineales son extensamente empleadas en computación y en los
problemas del mundo real.
1986: David Rumelhart y
G. Hinton redescubrieron el algoritmo de aprendizaje de propagación hacia atrás
backpropagation.
DEFINICIÓN: Para obtener una definición de red neuronal tenemos que hacer uso del concepto matemático de grafo. A través de este término, podemos definir una red neuronal de la siguiente forma:
Una red neuronal es un grafo dirigido con las siguientes propiedades:
- A cada nodo i se le asocia un variable de estado X.
- A cada conexión (i, j) de los nodos i y j se el asocia un peso WIJ.
- A cada nodo i se le asocia un umbral 0I.
- Para cada nodo i se define una función Fi(Xj, Wij, 0i) , que depende de los pesos de sus conexiones, del umbral y de los estados de los nodos j a él conectados. Esta función proporciona el nuevo estado del nodo.
TIPOS:
- MONOCAPA: Se corresponde con la red neuronal más sencilla ya que se tiene una capa de neuronas que proyectan las entradas a una capa de neuronas de salida donde se realizan los diferentes cálculos.
- MULTICAPA: Es una generalización de la anterior, existiendo un conjunto de capas intermedias entre la capa de entrada y la de salida (capas ocultas). Este tipo de red puede estar total o parcialmente conectada.
- RECURRENTE: Este tipo de red se diferencia de las anteriores en la existencia de lazos de realimentación en la red. Estos lazos pueden ser entre neuronas de diferentes capas, neuronas de la misma capa o, entre una misma neurona. Esta estructura la hace especialmente adecuada para estudiar la dinámica de los sistemas no lineales.
FUNCIÓN DE ACTIVACIÓN:
Las funciones de
activación son una idea tomada de la Biología y que trata de generalizar el
hecho de que las neuronas biológicas no son sumadores y transmisores de
impulsos, sino que tienen un mecanismo que decide si se activan o no,
en función de la entrada que reciben. Es al activarse cuando envían una
señal a través de su axón a otras neuronas que la siguen en la cadena de
procesamiento.
ARQUITECTURA:
Se denomina arquitectura a la topología o estructura en la que las distintas neuronas constituyentes de la red neuronal se asocian. En un ANS, los nodos se conectan por medio de sinapsis; esta estructura de conexiones sinápticas determina el comportamiento de la red. Las conexiones sinápticas son direccionales, es decir, la información sólo puede fluir en un sentido (desde la neurona presináptica a la neurona postsináptica).
En general, las neuronas se suelen agrupar en unidades estructurales denominadas capas. Dentro de una capa las neuronas pueden agruparse formando grupos neuronales. Dentro de una misma capa o agrupación, las neuronas suelen ser del mismo tipo. El conjunto de una o más capas constituye una red neurona.l.
Podemos distinguir tres tipos de capas:
- Capa de entrada: compuesta por neuronas que reciben datos o señales procedentes del entorno.
- Capa de salida: aquella cuyas neuronas proporcionan la respuesta de la red neuronal.
- Capa oculta: aquella que no tiene una conexión directa con el entorno.
Las conexiones entre las neuronas pueden ser excitatorias o inhibidoras, según el signo del peso sináptico asociado a la conexión. Si dicho peso sináptico es negativo, entonces tendremos una conexión inhibitoria, si por el contrario éste es positivo estaremos frente a una conexión excitatoria. Esta distinción no suele usarse demasiado, ya que el peso y su magnitud vendrán determinados en cada instante por el algoritmo de entrenamiento.
Las conexiones pueden clasificarse también en conexiones intracapa y conexiones intercapa. Las primeras se corresponden con las conexiones entre las neuronas de una misma capa y, la segunda se corresponde a las conexiones entre neuronas de distintas capas.
Ejemplo:
RECONOCIMIENTO DE ROSTROS MEDIANTE UNA ARQUITECTURA BASADA EN REDES NEURONALES
Las redes neuronales son una herramienta matemática que permite la solución de una gran variedad de problemas, en particular aquellos de difícil modelado. En este trabajo se presenta una arquitectura basada en redes neuronales para la identificación de rostros. La arquitectura está formada de varios clasificadores cada uno compuesto, a la vez, de una red neuronal estándar tipo ART2 conectada a un Mapa de Memoria (MM). Las salidas de los diferentes clasificadores están conectadas a un sumador común (registro de evidencias) y a un conjunto de comparadores permitiendo la fusión de datos. Se prueba el desempeño de la arquitectura con un conjunto limitado de diez rostros.
En la anterior imagen se ve la arquitectura implementada para el reconocimiento de rostros
Comentarios
Publicar un comentario