Cada vez más rápido

dc.contributor.authorJuan Felipe Ramos
dc.contributor.authorSebastián Gómez González
dc.contributor.authorNicolás Cardozo
dc.coverage.spatialBolivia
dc.date.accessioned2026-03-22T18:39:28Z
dc.date.available2026-03-22T18:39:28Z
dc.date.issued2021
dc.description.abstractEl diseño de algoritmos es fundamental para la construcción de artefactos de software que son correctos y eficientes. La importancia de los algoritmos se ha visto resaltada en los últimos años, donde debido a los requerimientos de procesamiento de altos volúmenes de datos en dominios como la inteligencia artificial o el procesamiento en la nube con arquitecturas de BigData. Ya no es suficiente diseñar algoritmos con tiempos de complejidad teórica óptimos. Además, estos algoritmos deben optimizar al máximo el tiempo de ejecución de los procesos. Para responder a esta necesidad, la programación paralela se ha enfocado en el desarrollo de algoritmos que pueden ejecutar múltiples tareas de forma simultánea, cada una en una unidad de procesamiento distinta. En este trabajo, presentamos la forma de mejorar el tiempo de ejecución de algoritmos óptimos aplicando técnicas de paralelismo a los algoritmos para aprovechar al máximo las capacidades de multi-procesamiento de las máquinas modernas. Para hacer concreto este proceso, utilizamos el método de descomposición de raíz cuadrada sobre grandes volúmenes de datos. Los resultados obtenidos de nuestro experimento muestran una mejora de hasta 1.9x sobre la versión secuencial del algoritmo, confirmando los resultados teóricos del diseño del algoritmo.
dc.identifier.doi10.29236/sistemas.n161a7
dc.identifier.urihttps://doi.org/10.29236/sistemas.n161a7
dc.identifier.urihttps://andeanlibrary.org/handle/123456789/71415
dc.language.isoes
dc.relation.ispartofRevista SISTEMAS
dc.sourceUniversidad de Los Andes
dc.subjectHumanities
dc.subjectPhysics
dc.titleCada vez más rápido
dc.typearticle

Files