Circularidad y Sesgos en la Identificación de Textos Generados por IA

Date

Journal Title

Journal ISSN

Volume Title

Publisher

European Organization for Nuclear Research

Abstract

Antecedentes: La proliferación de modelos de lenguaje extenso (LLM) como GPT-4 ha impulsado la adopción global de detectores de texto por IA para preservar la integridad académica. Sin embargo, su eficacia y fundamentos epistemológicos son profundamente controvertidos. Métodos: Mediante un diseño de métodos mixtos, se evaluó un panel de detectores líderes (GPTZero, Copyleaks, ZeroGPT, GLTR) sobre un corpus multilingüe de 360 textos (humanos, generados por IA e híbridos). Se calcularon métricas de rendimiento estándar y se analizaron sesgos mediante ANOVA y regresión logística, correlacionando los errores con métricas de complejidad retórica (Índice Flesch-Kincaid, perplejidad). Resultados: Ningún detector demostró infalibilidad. Las herramientas exhibieron tasas críticas de falsos positivos (hasta 38% para textos humanos, p<0.001), con un sesgo sistémico contra textos en español y escritores no nativos (OR = 3.12, IC95%: 2.68-3.56). Los textos híbridos presentaron el mayor desafío, con tasas de falsos negativos de hasta el 71%. Un modelo de circularidad estructural (ontológica, epistemológica, temporal) explicó el 89% de la varianza en los fallos (η²p=0.89, p<0.001). Conclusión: Los detectores de IA adolecen de fallos estructurales insalvables que los hacen conceptualmente inválidos y éticamente problemáticos para su uso en entornos académicos. Se propone un cambio de paradigma, abandonando la detección binaria punitiva en favor de marcos pedagógicos basados en la evaluación auténtica, la alfabetización crítica en IA y políticas de coautoría responsable.

Description

Citation