Con la llegada de nuevas herramientas de inteligencia artificial, se vuelve cada vez más fácil manipular imágenes. Pero hay pocos incentivos financieros para que las empresas inviertan en soluciones para detectar falsificaciones.
La inteligencia artificial (IA) se ha convertido en una herramienta sumamente poderosa capaz de engañar a las personas y haciéndolas creer falsedades, tal es el caso de la imagen del Papa Francisco con un abrigo Balenciaga. De acuerdo con Bloomberg, a pesar de los avances de esta tecnología, las herramientas digitales para identificar de manera confiable las imágenes trucadas tienen una gran dificultad para seguir el ritmo de la generación de contenido.
Un ejemplo de estas herramientas es el algoritmo creado por un grupo de investigadores de la Escuela de Tecnología de la Información de la Universidad de Deakin en Melbourne. Dicho algoritmo se desempeñó mejor en la identificación de imágenes alteradas de celebridades y en un conjunto de deepfakes el año pasado, este tuvo un resultado correcto del 78. Sin embargo, Chang-Tsun Li, profesor del Centro de Resiliencia y Confianza Cibernética de Deakin, indicó que la tecnología aún está en desarrollo y debe ser mejorada antes de que esté lista para su uso comercial.
Los deepfakes han existido y generado preocupaciones durante años. Si bien la imagen del Papa vestido con ropa moderna fue una manipulación relativamente inofensiva, el potencial de infligir daños graves crece a partir de falsificaciones profundas, desde la manipulación electoral hasta los actos sexuales. Tal es el ejemplo del video falso que circuló en 2022, donde se veía al presidente de Ucrania, Volodymyr Zelenskiy, pidiendo a sus soldados que se rindieran a Rusia, el cual podría haber tenido graves repercusiones.
Le puede interesar: ¿Qué está haciendo la IA por las empresas?
Tanto las grandes empresas de tecnología como la nueva ola de startups han invertido decenas de miles de millones de dólares en IA generativa para tomar liderazgo en la tecnología que podría cambiar la cara de todo.
Desde motores de búsqueda hasta videojuegos, las posibilidades de la IA son infinitas. Sin embargo, el mercado global de tecnología para erradicar el contenido manipulado es sumamente pequeño. Para la firma de investigación HSRC, el mercado global para la detección de falsificaciones profundas se valoró en US$3.860 millones en 2020 y se espera que se expanda a una tasa de crecimiento anual compuesta del 42% hasta 2026.
Los expertos coinciden en que no se le da la debida atención a la generación de IA ni la suficiente importancia a la detección. La tecnología dominada por aplicaciones como ChatGPT, de OpenAI, ha alcanzado un punto intenso. Sin embargo, ejecutivos desde Elon Musk, de Tesla, hasta Sundar Pichai, de Google, han advertido sobre los riesgos de ir demasiado rápido.
No cabe duda de que pasará un largo tiempo antes de que las herramientas de detección estén disponibles para utilizarse en contra de la ola de imágenes alteradas. Parte de este problema es el costo prohibitivo de desarrollar una detección precisa y hay pocos incentivos legales o financieros para hacerlo.
Comments