Valero Kari, Elvis R.(tutor)Pari Susaño, Rodrigo2026-03-222026-03-222025https://andeanlibrary.org/handle/123456789/38839Este documento presenta un estudio matem´atico de las redes neuronales prealimentadas (FNN), un componente clave del deep learning. El deep learning ha emergido como una subdisciplina destacada del aprendizaje autom´atico, mostrando gran eficacia en tareas como reconocimiento de im´agenes y conducci´on aut´onoma. Sin embargo, su fundamentaci´on matem´atica sigue siendo un desaf´ıo. La investigaci´on explora los fundamentos matem´aticos de las FNN, centr´andose en los teoremas de aproximaci´on que explican su capacidad expresiva. Se examina en detalle el teorema de aproximaci´on de Cybenko, que establece que las FNN de amplitud N y una sola capa oculta son densas en el espacio de funciones continuas. Se demuestra que las FNN pueden aproximar cualquier funci´on continua con precisi´on arbitraria bajo ciertas condiciones. El estudio tambi´en aborda la relaci´on entre profundidad y amplitud de las redes, proporcionando insights para dise˜nar arquitecturas m´as eficientes. Esta investigaci´on contribuye al entendimiento te´orico de las FNN y establece bases para futuros estudios en deep learning. Los resultados abren nuevas v´ıas para el estudio de arquitecturas m´as complejas y la optimizaci´on de modelos de aprendizaje profundo.esFUNDAMENTOS MATEMATICOSTEOREMAS DE APROXIMACIONREDES NEURONALESFundamentos matemáticos de las redes neuronales prealimentadasThesis