Uma proposta de algoritmo para treinamento de redes neurais artificiais: primeiros resultados em uma comparação com SG, Adam e Adragrad
Conteúdo do artigo principal
Resumo
Este artigo apresenta um novo algoritmo de treinamento supervisionado para redes neurais artificiais, desenvolvido com o objetivo de melhorar o desempenho de redes em tarefas de classificação, em que a acurácia é fundamental. O método é comparado aos algoritmos de otimização Stochastic Gradient Descent, Adam e Adagrad. Foram realizados experimentos com diferentes conjuntos de dados e arquiteturas de rede. As métricas utilizadas para avaliação foram o número de erros e a acurácia, durante as fases de treinamento e teste. Os resultados indicam que o método proposto apresenta desempenho competitivo, com vantagens específicas em determinados contextos, sendo uma alternativa promissora aos algoritmos tradicionais de otimização.
##plugins.themes.bootstrap3.displayStats.downloads##
##plugins.themes.bootstrap3.displayStats.noStats##
Detalhes do artigo
Edição
Seção
Artigos