Aprendizaje y análisis de redes neuronales artificiales profundas

Esta tesis trata sobre las redes neuronales profundas (RNPs), modelos computacionales de aprendizaje autónomo, inspirados en el funcionamiento del sistema nervioso de los seres vivos. Actualmente, las RNPs han logrado un desempeño muy notable en tareas de Inteligencia Artificial. Sin embargo, es bie...

Descripción completa

Detalles Bibliográficos
Autor principal: Dinamarca, Agustina
Otros Autores: Monge, David A.
Formato: info:eu-repo/semantics/bachelorThesis
Lenguaje:Español
Publicado: Universidad Nacional de Cuyo. Facultad de Ciencias Exactas y Naturales 2018
Materias:
Acceso en línea:http://bdigital.uncu.edu.ar/13989
Descripción
Sumario:Esta tesis trata sobre las redes neuronales profundas (RNPs), modelos computacionales de aprendizaje autónomo, inspirados en el funcionamiento del sistema nervioso de los seres vivos. Actualmente, las RNPs han logrado un desempeño muy notable en tareas de Inteligencia Artificial. Sin embargo, es bien sabido que el entrenamiento de estos modelos viene acompañado de un alto costo y complejidad computacional. Por otro lado, se diseñan redes con gran variedad de formas y tamaños dependiendo de su aplicación. Por lo tanto, muchos modelos de RNPs han sido desarrollados, e incluso mejorados, para lograr cada vez mayor eficacia y eficiencia en las tareas para las cuales fueron diseñados. En particular, la tesis se centra en dos tipos de redes muy populares en el área de Visión Computacional: las redes densas (RDs) y las redes convolucionales (RCs). Los objetivos principales de esta investigación fueron medir cuán eficaces y eficientes son distintas configuraciones de RDs frente a RCs en una tarea de clasificación multiclase. Para cumplir con los objetivos fue necesario: aprender RDs y RCs que clasifiquen imágenes; evaluar el desempeño de cada red en términos de exactitud de clasificación y tiempo de aprendizaje; y comparar aquellas cantidades entre ambos tipos de modelo. Los resultados obtenidos fueron parcialmente consistentes con las hipótesis propuestas. Los más relevantes fueron que el 91 % de las RCs aprendidas fueron míınimamente un 9.11 % más eficaces que las RDs. Esto indica que las primeras presentan mejor capacidad de aprender patrones complejos que las segundas. Tal capacidad se debe a que las RCs poseen mayor cantidad de unidades ocultas que las RDs, sumado al hecho de que cada unidad de una capa convolucional tiene conexiones locales con regiones de la capa anterior, y comparte parámetros con el resto de las unidades de la misma capa. Por otro lado, el 82 % de las RDs aprendidas fueron como mínimo 6.4 min más eficientes que las RCs. Estos resultados se atribuyen fundamentalmente a la cantidad y complejidad de operaciones que las redes deben efectuar y, en menor medida, a la cantidad de parámetros que las mismas deben aprender. Por último, los resultados obtenidos en este trabajo sirven para entender el impacto de las variaciones estructurales de las RNPs en sus desempeños. Esta clase de estudios,junto a otros, permite incorporar una correcta y adecuada flexibilidad a cualquier dispositivo de RNPs para que funcione con mejor eficacia y eficiencia.