Fundamentos matemáticos de las redes neuronales prealimentadas

Date

Journal Title

Journal ISSN

Volume Title

Publisher

Facultad de Ciencias Puras y Naturales

Abstract

Este documento presenta un estudio matem´atico de las redes neuronales prealimentadas (FNN), un componente clave del deep learning. El deep learning ha emergido como una subdisciplina destacada del aprendizaje autom´atico, mostrando gran eficacia en tareas como reconocimiento de im´agenes y conducci´on aut´onoma. Sin embargo, su fundamentaci´on matem´atica sigue siendo un desaf´ıo. La investigaci´on explora los fundamentos matem´aticos de las FNN, centr´andose en los teoremas de aproximaci´on que explican su capacidad expresiva. Se examina en detalle el teorema de aproximaci´on de Cybenko, que establece que las FNN de amplitud N y una sola capa oculta son densas en el espacio de funciones continuas. Se demuestra que las FNN pueden aproximar cualquier funci´on continua con precisi´on arbitraria bajo ciertas condiciones. El estudio tambi´en aborda la relaci´on entre profundidad y amplitud de las redes, proporcionando insights para dise˜nar arquitecturas m´as eficientes. Esta investigaci´on contribuye al entendimiento te´orico de las FNN y establece bases para futuros estudios en deep learning. Los resultados abren nuevas v´ıas para el estudio de arquitecturas m´as complejas y la optimizaci´on de modelos de aprendizaje profundo.

Description

Citation

DOI

Collections