El mercado de las inteligencias artificiales ha crecido en los últimos meses ofreciendo herramientas únicas a sus usuarios. Sin embargo, de todas las cosas para las qué sirve la nueva IA de Meta, llamado LLaMA, nadie esperaba que uno de sus usos fuese el realizar llamadas eróticas o “sexbots”.

De acuerdo con un informe de The Washington Post, luego de que se lanzó esta inteligencia artificial con su paquete de código abierto a principios de este año, la gente ha estado usándola constantemente. Y, un sector de personas están desarrollando sus propios sexbots gráficos impulsados por esta herramienta.

Aunque esta noticia no es del todo sorprendente. Los usuarios ya han estado utilizando diversos modelos de IA para propósitos inapropiados (NSFW). El informe resalta las crecientes tensiones entre aquellos que apoyan mantener los modelos de lenguaje como LLaMA de código abierto y aquellos que defienden un enfoque más cauteloso y cerrado.

Y, es que, de hecho, no es su único uso. Además de estos fines eróticos, la gente puede desarrollar sus propios generadores de texto para resolver dudas o generar comunicación continua simulando ser una persona. Lo cual puede facilitarle la vida a quien los necesite.

¿Para qué sirve la nueva IA de Meta?

Como mencionamos, la nueva IA de Meta sirve para generar diferentes herramientas de generación de texto, como estos chatbots eróticos. Uno de ellos es «Allie», que se presenta como una joven de 18 años con cabello largo y rizado. Además, afirma tener «toneladas de experiencias sexuales».

Allie les dice a los usuarios que, como «vive para la atención», compartirá detalles de sus aventuras. De hecho, el creador de Allie, quien prefirió mantenerse en el anonimato defiende su uso. Él argumenta que su bot proporciona un espacio saludable y seguro para «explorar» la sexualidad sin tener que evadir o manipular barreras.

Sin embargo, usuarios en redes sociales han señalado algunos de sus puntos problemáticos, pues este chatbot incluye escenas de violencia sexual y abuso. Tener un espacio seguro y libre de prejuicios para explorar la sexualidad no es inherentemente malo. Sin embargo, especialistas en tecnología como Maggie Harrison señalan que contar con un entorno sin control para participar en fantasías violentas con chatbots realistas no es precisamente ideal.

Además, esto ya está generando problemas reales en algunos casos muy preocupantes. Según otro informe del Washington Post, los expertos advierten de otro mal uso. Han notado que los depredadores están utilizando generadores de imágenes de código abierto, como el poderoso modelo Stable Diffusion de Stability AI, para crear contenido de abuso sexual infantil realista generado por IA.

Al ser de código abierto, la IA de Meta sirve para tener un desarrollo libre.

Problemas éticos de la inteligencia artificial

A comienzos de este mes, los senadores estadounidenses Richard Blumenthal (D-Conn.) y Josh Hawley (R-Mo.) dirigieron una carta al CEO de Meta, Mark Zuckerberg, expresaron su preocupación acerca de los posibles usos indebidos de LLaMA. Ellos mencionan que podrían incluir spam, fraude, malware, violaciones de privacidad, acoso y otros actos perjudiciales. Por esto, solicitaron información sobre las medidas que Meta estaba implementando para prevenir este tipo de abusos.

De acuerdo con estos senadores, la IA de Meta sirve no sólo como generadora de texto, sino como herramienta para dañar a terceros. Clem Delangue, CEO de Hugging Face, reconoció que las herramientas de código abierto se usan para estos fines. Hizo referencia a un modelo llamado GPT-4chan, que había sido intencionalmente entrenado con contenido tóxico y que Hugging Face, una comunidad de usuarios de IA, había eliminado. 

Desafortunadamente, los desarrolladores han utilizado los generadores de texto basados en inteligencia artificial para generar sexbots.

Si bien las normas de Hugging Face no prohíben los proyectos de IA que generan contenido sexualmente explícito, sí prohíben el contenido sexual que involucra a menores de edad o que es «utilizado o creado para acosar, intimidar o sin el consentimiento explícito de las personas representadas».

A principios de este mes, la empresa con sede en Nueva York publicó una actualización de sus políticas de contenido, enfatizando el «consentimiento» como un «valor fundamental» que guía cómo las personas pueden utilizar la plataforma.

¿Tú qué piensas? ¿Crees que la IA de Meta sirve para más cosas que sólo generar texto? ¿Crees que se deba regular? Déjanos un comentario y suscríbete a nuestro Newsletter.