Hoy una serie de investigadores han anunciado que desarrollaron un generador de textos usando Inteligencia Artificial, el cual es muy bueno, y lo es a tal grado que se mantienen en privado los detalles de dicho software.

Usan Inteligencia Artificial para detectar perfiles falsos en sitios de citas

La aplicación, desarrollada por OpenAI podría ser usada para generar nuevas historias, hacer revisión de productos y otros tipos de escritos, los cuales parecen ser mucho más humanos que todos los programas anteriores que habían trabajado en el tema.

OpenAI es un centro de investigación en Inteligencia Artificial, apoyado por Elon Musk y Microsoft, el cual indica que «la aplicación logra estar en el estado del arte en lo que se refiere a desempeño en muchos lenguajes de acuerdo a los modelos de prueba», incluyendo el hacer resúmenes y traducciones.

Pero a pesar de todas estas virtudes, el programa no estará disponible al público. «Debido a nuestra preocupación sobre las aplicaciones maliciosas de la tecnología, no estamos mostrando al público el modelo entrenado», dicen los investigadores de OpenAI en un artículo de blog el jueves pasado.

La noticia sobre este programa podría ser un parte aguas en la investigación de los textos generados por computadora, los cuales son mucho más realistas y potencialmente peligrosos. Los investigadores dijeron que hay muchas maneras de que el programa se pudiese usar para propósitos maliciosos, por ejemplo, generar «fake news» robando identidad de otros en líena y poner contenido falso en las redes sociales.

Pero para entender qué hace el software, se le dio un texto que decía: «una horda de unicornios que viven en un valle remoto e inexplorado, en los Andes», y el programa escribió un texto de 300 palabras con una historia sobre el mismo.

«El público al final del día, tendrá que aprender a ser más escéptico sobre los textos que encuentra en línea, que es lo que ya está pasando con las llamadas «deep fakes», imágenes falsas de personajes públicos en situaciones comprometedoras, que son en realidad composiciones de video muy sofisticadas y cada vez más difíciles de detectar y que están a la alza», dicen los investigadores..

Los investigadores dijeron que su modelo, llamado GPT-2, «sobrepasa los modelos en otros idiomas», entrenado con tareas como entradas de Wikipedia, noticias, o libros, sin necesitar de un entrenamiento específico.

Habrá que ver cuánto dura este auto-veto. Si estos investigadores no muestran sus hallazgos, llegarán otros que estén trabajando en este tema, y que nos enseñarán lo que están haciendo.