Fundamentos matemáticos de las redes neuronales prealimentadas

dc.contributor.advisorValero Kari, Elvis R.(tutor)
dc.contributor.authorPari Susaño, Rodrigo
dc.coverage.spatialBolivia
dc.date.accessioned2026-03-22T13:07:30Z
dc.date.available2026-03-22T13:07:30Z
dc.date.issued2025
dc.description.abstractEste documento presenta un estudio matem´atico de las redes neuronales prealimentadas (FNN), un componente clave del deep learning. El deep learning ha emergido como una subdisciplina destacada del aprendizaje autom´atico, mostrando gran eficacia en tareas como reconocimiento de im´agenes y conducci´on aut´onoma. Sin embargo, su fundamentaci´on matem´atica sigue siendo un desaf´ıo. La investigaci´on explora los fundamentos matem´aticos de las FNN, centr´andose en los teoremas de aproximaci´on que explican su capacidad expresiva. Se examina en detalle el teorema de aproximaci´on de Cybenko, que establece que las FNN de amplitud N y una sola capa oculta son densas en el espacio de funciones continuas. Se demuestra que las FNN pueden aproximar cualquier funci´on continua con precisi´on arbitraria bajo ciertas condiciones. El estudio tambi´en aborda la relaci´on entre profundidad y amplitud de las redes, proporcionando insights para dise˜nar arquitecturas m´as eficientes. Esta investigaci´on contribuye al entendimiento te´orico de las FNN y establece bases para futuros estudios en deep learning. Los resultados abren nuevas v´ıas para el estudio de arquitecturas m´as complejas y la optimizaci´on de modelos de aprendizaje profundo.es
dc.identifier.urihttps://andeanlibrary.org/handle/123456789/38839
dc.language.isoes
dc.publisherFacultad de Ciencias Puras y Naturales
dc.relationhttps://repositorio.umsa.bo/xmlui/bitstream/123456789/42722/1/PG-177.pdf
dc.sourceUniversidad Mayor de San Andrés
dc.subjectFUNDAMENTOS MATEMATICOS
dc.subjectTEOREMAS DE APROXIMACION
dc.subjectREDES NEURONALES
dc.titleFundamentos matemáticos de las redes neuronales prealimentadas
dc.typeThesis

Files

Collections