Saltar al contenido

Fundamentos de la teoría de la red neuronal

Una de las direcciones populares de la Inteligencia Artificial es la teoría de las redes de neuronas. Este curso es una introducción sistematizada a esta dirección. Nuestro objetivo es introducir a los estudiantes en los principales paradigmas de la red neuronal, para mostrar el alcance de esta dirección.

La gente siempre estaba interesada en su propio pensamiento. Este interés propio, el pensamiento del cerebro sobre sí mismo es quizás el sello distintivo del hombre. Los neurobiólogos y los neuroanatómicos han hecho progresos significativos en esta área. Estudiando diligentemente la estructura y las funciones del sistema nervioso humano, comprendieron mucho sobre el «cableado» del cerebro, pero aprendieron poco sobre su funcionamiento. En el proceso de acumulación de sus conocimientos, se hizo evidente que el cerebro tiene una complejidad asombrosa. Cientos de miles de millones de neuronas, cada una conectada a cientos o miles de otras, forman un sistema que va más allá de nuestros sueños más salvajes de supercomputadoras. Hoy en día, hay dos objetivos mutuamente enriquecedores de la modelización neural: el primero es comprender el funcionamiento del sistema nervioso humano a nivel de la fisiología y la psicología, y el segundo es crear sistemas de computación (redes neurales artificiales) que realicen funciones similares a las del cerebro. Es este último objetivo el que se centra en este curso.

Fundamentos de la teoría de la red neuronal
Fundamentos de la teoría de la red neuronal

Las conferencias del curso abordan paradigmas clásicos de redes neuronales como los perseptrones, las redes de Hopfield y Hammings, las redes de contrapropagación, la memoria asociativa bidireccional, la teoría de la resonancia adaptativa, los neocognetrones y los cognitivos. Para cada red considerada, se describe su arquitectura, algoritmos de aprendizaje, problemas de capacidad y estabilidad.