Training Optimization for Artificial Neural Networks
Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases...
Guardado en:
Autores principales: | , , , |
---|---|
Formato: | article |
Lenguaje: | EN |
Publicado: |
Universidad Autonoma del Estado de Mexico
2010
|
Materias: | |
Acceso en línea: | https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d0 |
Etiquetas: |
Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
|
id |
oai:doaj.org-article:4943b7b0f57a44559a0bba34f29895d0 |
---|---|
record_format |
dspace |
spelling |
oai:doaj.org-article:4943b7b0f57a44559a0bba34f29895d02021-11-11T14:46:37ZTraining Optimization for Artificial Neural Networks1405-02692395-8782https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d02010-01-01T00:00:00Zhttp://www.redalyc.org/articulo.oa?id=10415212010https://doaj.org/toc/1405-0269https://doaj.org/toc/2395-8782Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.Primitivo Toribio LunaRoberto Alejo EleuterioRosa María Valdovinos RosasBenjamín Gonzalo Rodríguez MéndezUniversidad Autonoma del Estado de Mexicoarticleredes neuronales artificialesperceptrón multicaparedes de función de base radialmáquinas de vectores soportepreprocesado de datosScienceQSocial SciencesHENCiencia Ergo Sum, Vol 17, Iss 3, Pp 313-317 (2010) |
institution |
DOAJ |
collection |
DOAJ |
language |
EN |
topic |
redes neuronales artificiales perceptrón multicapa redes de función de base radial máquinas de vectores soporte preprocesado de datos Science Q Social Sciences H |
spellingShingle |
redes neuronales artificiales perceptrón multicapa redes de función de base radial máquinas de vectores soporte preprocesado de datos Science Q Social Sciences H Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez Training Optimization for Artificial Neural Networks |
description |
Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente. |
format |
article |
author |
Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez |
author_facet |
Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez |
author_sort |
Primitivo Toribio Luna |
title |
Training Optimization for Artificial Neural Networks |
title_short |
Training Optimization for Artificial Neural Networks |
title_full |
Training Optimization for Artificial Neural Networks |
title_fullStr |
Training Optimization for Artificial Neural Networks |
title_full_unstemmed |
Training Optimization for Artificial Neural Networks |
title_sort |
training optimization for artificial neural networks |
publisher |
Universidad Autonoma del Estado de Mexico |
publishDate |
2010 |
url |
https://doaj.org/article/4943b7b0f57a44559a0bba34f29895d0 |
work_keys_str_mv |
AT primitivotoribioluna trainingoptimizationforartificialneuralnetworks AT robertoalejoeleuterio trainingoptimizationforartificialneuralnetworks AT rosamariavaldovinosrosas trainingoptimizationforartificialneuralnetworks AT benjamingonzalorodriguezmendez trainingoptimizationforartificialneuralnetworks |
_version_ |
1718438742725754880 |