Resumen
Introducción
Identificar la autenticidad y autoría humana de textos escritos se ha convertido en una gran problemática debido al uso extensivo de modelos de inteligencia artificial para la generación de textos, el cual está presente en diversos ámbitos, como la educación, investigación y medios de comunicación.
Métodos
Este artículo presenta un estudio sobre modelos de aprendizaje profundo para la correcta detección de textos generados por inteligencia artificial. Para ello, se usa un conjunto de datos de 2,174 documentos, divididos en textos escritos por humanos y textos generados por inteligencia artificial. Se consideraron para su análisis diferentes modelos populares de transformadores, los cuales fueron probados mediante una validación cruzada estratificada de 5 partes (5-fold cross-validation), entrenando los modelos en cada parte (cada fold) utilizando sus versiones preentrenadas y aplicando un ajuste fino (fine tuning). Los modelos fueron medidos en su desempeño de clasificación utilizando las métricas de exactitud, precisión, exhaustividad y F1, además de los tiempos de entregamiento y prueba.
Resultados
Los resultados demuestran que los modelos lograron un buen desempeño, con una exactitud mínima de 0.919 (BERT, en su versión bert-base-uncased), y una exactitud máxima de 0.988 (ALBERT, en su versión albert-base-v2).
Conclusiones
En general, los modelos tuvieron una mayor tendencia en identificar mejor los textos generados por inteligencia artificial que los escritos por humanos, en donde se presentaron algunas confusiones. Lo anterior subraya la complejidad de esta tarea, lo que incentiva al desarrollo de herramientas esenciales para preservar la integridad de la información en la era digital.

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.