Embarrassingly Parallel Autoconstructive Multilayer Perceptron
Neural Networks
redes neurais; paralelização; seleção de modelos; redes
neurais autoconstrutivas
Nesta tese foi desenvolvido um método para a construção automática de Redes
Neurais Multilayer Perceptron (MLPs). Para isso, propomos um algoritmo de
splitting de dados (Similarity Based Stratified Splitting) que procura
manter as características estatísticas entre os splits gerados de forma a
treinar melhores modelos. Estes splits são utilizados para o treinamento de
diversas MLPs com diferentes arquiteturas de forma paralela e independente
(ParallelMLPs), utilizando uma multiplicação matricial modificada, que
aproveita o princípio da localidade para acelerar o treinamento destas
redes entre 1 e 4 ordens de grandeza, quando comparamos com o treinamento
sequencial dos modelos. Além disso, discutimos diferentes políticas de
seleção dessas MLPs dado um pool de modelos complexos de tamanho
considerável.