Training Optimization for Artificial Neural Networks

Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Primitivo Toribio Luna, Roberto Alejo Eleuterio, Rosa María Valdovinos Rosas, Benjamín Gonzalo Rodríguez Méndez
Formato: article
Lenguaje:EN
Publicado: Universidad Autonoma del Estado de Mexico 2010
Materias:
Q
H
Acceso en línea:https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d0
Etiquetas: Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
id oai:doaj.org-article:4943b7b0f57a44559a0bba34f29895d0
record_format dspace
spelling oai:doaj.org-article:4943b7b0f57a44559a0bba34f29895d02021-11-11T14:46:37ZTraining Optimization for Artificial Neural Networks1405-02692395-8782https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d02010-01-01T00:00:00Zhttp://www.redalyc.org/articulo.oa?id=10415212010https://doaj.org/toc/1405-0269https://doaj.org/toc/2395-8782Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.Primitivo Toribio LunaRoberto Alejo EleuterioRosa María Valdovinos RosasBenjamín Gonzalo Rodríguez MéndezUniversidad Autonoma del Estado de Mexicoarticleredes neuronales artificialesperceptrón multicaparedes de función de base radialmáquinas de vectores soportepreprocesado de datosScienceQSocial SciencesHENCiencia Ergo Sum, Vol 17, Iss 3, Pp 313-317 (2010)
institution DOAJ
collection DOAJ
language EN
topic redes neuronales artificiales
perceptrón multicapa
redes de función de base radial
máquinas de vectores soporte
preprocesado de datos
Science
Q
Social Sciences
H
spellingShingle redes neuronales artificiales
perceptrón multicapa
redes de función de base radial
máquinas de vectores soporte
preprocesado de datos
Science
Q
Social Sciences
H
Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
Training Optimization for Artificial Neural Networks
description Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.
format article
author Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
author_facet Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
author_sort Primitivo Toribio Luna
title Training Optimization for Artificial Neural Networks
title_short Training Optimization for Artificial Neural Networks
title_full Training Optimization for Artificial Neural Networks
title_fullStr Training Optimization for Artificial Neural Networks
title_full_unstemmed Training Optimization for Artificial Neural Networks
title_sort training optimization for artificial neural networks
publisher Universidad Autonoma del Estado de Mexico
publishDate 2010
url https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d0
work_keys_str_mv AT primitivotoribioluna trainingoptimizationforartificialneuralnetworks
AT robertoalejoeleuterio trainingoptimizationforartificialneuralnetworks
AT rosamariavaldovinosrosas trainingoptimizationforartificialneuralnetworks
AT benjamingonzalorodriguezmendez trainingoptimizationforartificialneuralnetworks
_version_ 1718438742725754880