Herramientas que generan pornografía con IA, facilitan el fraude académico y ofrecen asesoramiento médico no acreditado están violando las políticas, sin embargo están disponibles para descarga.
La expansión de las capacidades de IA abre una amplia gama de oportunidades para el desarrollo y la personalización de herramientas, como lo demuestra OpenAI con su plataforma ChatGPT. Al anunciar la posibilidad de que los usuarios crearan sus propios chatbots basados en IA, la empresa ofreció una puerta abierta para la innovación y el emprendimiento. Sin embargo, esta apertura también ha revelado un lado más oscuro de la tecnología, con la aparición de chatbots que van más allá de los usos legítimos, ofreciendo contenidos y servicios ilícitos.
De acuerdo con Business Insider, la GPT Store, una tienda de aplicaciones de chatbots lanzada por OpenAI, fue diseñada para que los desarrolladores pudieran compartir y monetizar sus creaciones. Empresas de gran renombre, como Canva y Kayak, han aprovechado este espacio para lanzar sus versiones personalizadas de ChatGPT, posicionándose en los primeros lugares de popularidad. No obstante, con la falta de un sistema claro de remuneración para los desarrolladores, algunos han optado por modelos alternativos de monetización, como la publicidad o las suscripciones freemium, lo que ha generado tensiones sobre el control de contenidos.
En este contexto, la tienda ha sido objeto de preocupación debido a la proliferación de chatbots que ofrecen servicios cuestionables o que incluso violan las propias políticas de OpenAI. Un análisis reciente de Gizmodo puso en evidencia la facilidad con la que se pueden encontrar herramientas que generan pornografía mediante IA, que ofrecen métodos para eludir sistemas académicos de detección o que brindan asesoramiento médico sin la debida acreditación.
El riesgo de estos chatbots va más allá de lo ético, pues las plataformas tecnológicas como OpenAI enfrentan el reto de garantizar que su ecosistema de IA no se convierta en un espacio donde proliferan usos malintencionados. La búsqueda de términos como "NSFW" en la GPT Store revela la presencia de aplicaciones que generan imágenes explícitas con IA, una clara transgresión de las políticas establecidas. Este tipo de chatbots, como el caso del NSFW AI Art Generator, han sido utilizados miles de veces, lo que subraya la magnitud del problema.
El director del Proyecto de Gobernanza de Internet del Instituto Tecnológico de Georgia, Milton Mueller, señaló la ironía de la situación “mientras OpenAI se posiciona como una empresa preocupada por los riesgos existenciales de la IA, enfrenta dificultades para controlar contenidos claramente ilícitos dentro de su propia plataforma. Este dilema plantea preguntas fundamentales sobre la capacidad de las empresas tecnológicas para autorregularse en un entorno cada vez más complejo”.
Comments