Un nuevo algoritmo de la IA puede generar textos lo suficientemente convincentes para engañar al humano promedio, creando una forma de producción de «fake news», revisiones falsas y cuentas de usuarios hasta divertidas. Sin embargo, la propia IA está ahora creando algoritmos para identificar este tipo de textos falsos.

Los investigadores de la Universidad de Harvard y el Centro IBM-MIT Watson de IA, han desarrollado una nueva herramienta que puede darse cuenta si un texto ha sido generado usado IA. Bautizado como «Giant Language Model Test Room (GLTR)«, explota el hecho de que los generadores de textos se basan en patrones estadísticos en los textos, cosa opuesta al significado de palabras y oraciones. En otras palabras, la herramienta puede decir si las palabras que se están leyendo han sido escritas por un ser humano.

Es claro que la desinformación se está generando cada vez con más frecuencia, de manera automática. La tecnología requerida para generar textos e imágenes falsas está avanzando muy rápidamente. Por ello, la necesidad de herramientas inteligentes que puedan encontrar noticias falsas, «deepfakes» y bots de twitter, se está haciendo algo fundamental.

Por ejemplo, investigadores de OpenAI demostraron un algoritmo capaz de generar pasajes sorprendentemente realistas. El sistema se alimentó con enormes cantidades de textos a un modelo grande de aprendizaje de máquinas, el cual aprendió a encontrar los patrones de texto más probables estadísticamente. El equipo de Harvard desarrolló su herramienta usando la versión del código de OpenAI que se liberó públicamente.

GLTR trabaja de la siguiente manera: halla las palabras que deberían aparecer en cada una de las palabras precedidas en el texto. En la imagen que ilustra este artículo, las más predecibles están en verde, las menos predecibles en amarillo y rojo, y las de plano prácticamente no predecibles, en morado. Cuando se probó con un texto creado con el algoritmo de OpenAI, se encontró una gran predictibilidad. Los artículos de noticias y «abstracts» científicos contienen más sorpresas.

Los investigadores detrás del GLTR hicieron otro experimento: le preguntaron a los alumnos de Harvard para ver si ellos podían identificar un texto creado por la IA, primero sin la herramienta y luego usando los colores que se usan para distinguir la predictibilidad de las palabras. Los estudiantes fueron capaces de identificar las notas falsas solamente en un 50%, pero 72% pudo hacerlo cuando se tuvo acceso a la herramienta. «Nuestra meta es crear un sistema de colaboración humano con máquinas IA», dijo el estudiante de doctorado Sebastian Gerhmann, involucrado en este trabajo.