Introducción a las redes neuronales y su aplicación a la investigación astrofísica
Sumario
Introducción
Inspiración biológica
Modelado Neuronal
Implementaciones
Aplicaciones
Grupo de trabajo
Futuro de las RNAs
Redes Neuronales en la IA
Ramas de la Inteligencia Artificial en sus inicios:
Simbólica-deductiva:
Sistemas formales de reglas y manipulación simbólica
Rama más conocida de la IA
Conexionista:
Inspirada en las redes neuronales biológicas
Métodos Inductivos: a partir de ejemplos
Ambas tratan de resolver problemas no algoritmicos a partir de la experiencia almacenada como conocimiento
Inspiración biológica
Entender el cerebro y emular su potencia
Cerebro:
Gran velocidad de proceso
Tratamiento de grandes cantidades de información procedentes de:
Los sentidos
Memoria almacenada
Capacidad de tratar situaciones nuevas
Capacidad de aprendizaje
Inspiración biológica
Transmisión neuronal:
Impulso eléctrico que viaja por el axón
Liberación de neurotransmisores
Apertura/cierre de canales iónicos
Variación potencial en dendrita
Integración de entradas en soma
Si se supera umbral de disparo se genera un PA
Inspiración biológica
Red Neuronal Biológica:
de 1010 a 1011 neuronas
1014 sinapsis
Organización por capas
Organización por niveles:
Sistema Nervioso Central (SNC)
Circuitos entre regiones
Circuitos locales
Neuronas
Árboles dendríticos
Microcircuitos neuronales
Sinapsis
Canales iónicos
Moléculas
Inspiración biológica
Características SNC:
Inclinación a adquirir conocimiento desde la experiencia
Conocimiento almacenado en conexiones sinápticas
Gran plasticidad neuronal
Comportamiento altamente no-lineal
Alta tolerancia a fallos (muerte neuronal)
Apto para reconocimiento, percepción y control
Modelado Neuronal
Una red neuronal artificial (RNA) es un sistema de procesamiento de información que tiene ciertas aptitudes en común con las redes neuronales biológicas:
El procesamiento de información ocurre en muchos elementos simples llamados neuronas.
Las señales son transferidas entre neuronas a través de enlaces de conexión.
Cada conexión tiene un peso asociado, el cual, típicamente, multiplica a la señal transmitida.
Cada neurona aplica una función de activación (usualmente no lineal) a su entrada de red (suma de entradas pesadas) para determinar su salida.
Laurene Fausett
Modelado Neuronal
Enfoques:
Computacional:
Modelos eficientes, potentes y simples
Áreas de aprendizaje inductivo y reconocimiento de patrones
Cognitivo:
Interesado por capacidades cognitivas de los modelos
Centrados en representación del conocimiento
Biocognitivo:
Premisa la plausibilidad biológica
Psicofisiológico:
Mecanismos naturales de procesos cognitivos reales
Modelado Neuronal
Neurona Natural vs. Artificial:
Neurona = Unidad de proceso
Conexiones sinápticas = Conexiones Pesadas
Efectividad sináptica = Peso sináptico
Exitatorio/Inhibitorio = Pesos + ó –
Efecto combinado de sinapsis = Función suma
Activación-> Ratio disparo = Función activación -> salida
Modelado Neuronal
Aprendizaje:
Estimulación de la RN por el entorno
Cambios en la RN debido a estimulación
Nueva forma de responder debido a cambios de la estructura interna de la RN
Modelado Neuronal
Paradigmas de aprendizaje:
Aprendizaje Supervizado
Aprendizaje por Reforzamiento
Aprendizaje Auto-organizado (No Supervizado)
Precalculado o prefijado
Modelado Neuronal
Aprendizaje no supervizado:
Se presentan sólo patrones de entrada
Basado en la redundancia en las entradas
Aprendizaje extrae de los patrones:
Familiaridad con patrones típicos o promedios del pasado
Análisis de las Componentes Principales
Clustering
Prototipos, correspondientes a las categorias existentes
Codificación
Mapa de Características
Grandes plausibilidades biológicas
Modelado Neuronal
Algoritmos de aprendizaje más comunes:
Perceptrón multicapa o Backpropagation (BPN)
Aprendizajes supervizados bajo corrección de error
Mapas Auto-organizados (SOM)
Aprendizajes competitivo no supervizados
Extractores de características (GHA ó ICA)
Aprendizajes hebbianos no supervizados
Modelado Neuronal
Generalización
Estructura altamente paralela
No linealidad
Mapeo de Entrada-Salida
Adaptabilidad
Respuesta graduada
Información Contextual
Tolerancia a fallos
Implementación VLSI
Uniformidad en el Análisis y Diseño
Analogía Neurobiológica
Propiedades y Capacidades
Implementaciones
Medio biológico vs. medio silicio
Velocidad:
Neuronas: 10-3 s., Puertas lógicas: 10-9 s.
Tamaño:
Neuronas 5 ó 6 órdenes de magnitud menores
Eficiencia energética:
Cerebro: 10-16 J/op./s., mejores ordenadores: 10-6
Fan-In:
Promedio de 10.000 sinapsis por neurona, mucho mayor que en silicio
Implementaciones
Neurosimuladores:
Software:
Flexibles
Económicos
Hardware:
Eficientes
Implementaciones
Tipos Neurosoftware:
Programación directa
Librerías
Entornos de desarrollo
Características deseables:
Facilidad de uso
Potencia
Eficiente
Extensibilidad
Implementaciones
Neurohardware:
VLSI analógico
Opto-Electrónicos
FPGAs
Neuro-Chips (VLSI Digital)
Neuro-Tarjetas
Máquinas paralelas de propósito general
Biochips
Objetivo:
Acelerar fases de aprendizaje y ejecución
Implementaciones
Biochips
Aplicaciones
Tipos de problemas abordables:
Asociación
Clasificación de Patrones
Predicción
Control
Aproximación
Optimización
En general:
Difícil describir conocimiento/forma de resolverlos
Se dispone de una gran cantidad de datos
Problemas de Predicción
Airline Marketing Tactician (AMT):
Monitoriza y recomienda la reserva de plazas
Neuralstocks:
Servico de predicciones financieras a corto plazo
Problemas de Control
Control de robots:
Cinemática inversa
Dinámica
ALVINN:
Conducción de vehículo
Problemas de Aproximación
Aproximación de funciones utilizando RBFs
Problemas de Optimización
Optimización de rutas:
TSP
Aplicaciones en Astronomía/Astrofísica
Reconocimiento de estrellas/galaxias
Clasificación espectral y morfológica de estrellas/galaxias
Estudios de superficies planetarias
Estudio del campo magnético interplanetario
Determinación de parámetros en atmósferas estelares
Clasificación de poblaciones de enanas blancas
Neural Networks, 16 (2003)
Aplicaciones en Astronomía/Astrofísica
Identificación y caracterización de objetos: QSO's, galaxias IR ultraluminosas, fuente de Rayos Gamma
Determinación de desplazamientos fotométricos al rojo
Eliminación de ruido en pixels
Descomposición de datos simulados multi-frecuencia para la misión Planck
Búsqueda de cúmulos de galaxias
Neural Networks, 16 (2003)
Aplicaciones en Astronomía/Astrofísica
Análisis de datos recogidos por instrumentos de nueva generación para astrofísica de alta energía:
Telescopio de neutrinos AUGER y ARGO
Telescopio de rayos gamma Cherenkhov
Interferómetro de ondas gravitacionales VIRGO
Búsqueda de bosones Higgs
AstroNeural, paquete AstroMinnig: reducción y análisis de datos
Neural Networks, 16 (2003)
Grupo de Trabajo
Grupo de Computación Neuronal y Adaptativa y Neurociencia Computacional
Departamento de Estadística, I. O. y Computación, ULL
I. U. de Ciencias y Tecnologías Cibernética, ULPGC
Área de Conocimiento: Ciencias de la Computación e Inteligencia Artificial
Líneas de trabajo
Neurociencia Computacional y Cognición Computacional: Comunicación Neuronal;Aprendizaje y Memoria.Procesos y Estructuras Cognitivas/Perceptivas Teorías y Modelos
Redes Neuronales Naturales y Artificiales: Diseño de Nuevos Modelos de RNAs
Aplicación de la Computación Neuronal en Dominios Biomédicos, Clínicos y Medioambientales
Grupo de Trabajo
Docencia Impartida en la ULL
Introducción a los Modelos de Computación Conexionista
3er curso, Ing. Técnica en Informática de Sistemas, ETSII
30 a 40 alumnos
http://soma.etsii.ull.es/imcc/
Introducción a la Inteligencia Artificial
3er curso, ITI de Gestión/Sistemas
50 a 60 alumnos
http://soma.etsii.ull.es/iia/
Modelos Conexionistas y Autómatas
5º curso, Ing. Informática, ETSII
10 a 20 alumnos
http://soma.etsii.ull.es/mcya/
Futuro de las RNAs
Futuro prometedor, si nos seguimos acercando a las característicias de los organismos vivos:
Evolución, Computación Colectiva, Manejo del Conocimiento, …
Natural Computing => Soft Computing
Presente problemático: dificultades de escalabilidad
¿Tal vez algunos parámetros de nuestros modelos son erroneos?
¿Tal vez no disponemos de la suficiente potencia informática?
¿Tal vez nuestros modelos no han alcanzado la suficiente complejidad?
¿Tal vez nos falta en nuestros modelos algún concepto fundamental?