Mientras los expertos advierten que las imágenes, el audio y el vídeo generados por inteligencia artificial podrían influir en las elecciones de otoño, OpenAI está lanzando una herramienta diseñada para detectar contenido creado por su popular generador de imágenes, DALL-E. Pero la destacada empresa emergente de inteligencia artificial reconoce que esta herramienta es solo una pequeña parte de lo que se necesitará para luchar contra los llamados deepfakes en los meses y años venideros.

El martes, OpenAI dijo que compartiría su nuevo detector de falsificaciones con un pequeño grupo de investigadores de desinformación para que pudieran probar la herramienta en situaciones del mundo real y ayudar a identificar formas en que podría mejorarse.

“Esto es para poner en marcha nuevas investigaciones”, dijo Sandhini Agarwal, investigadora de OpenAI que se centra en seguridad y políticas. “Eso es realmente necesario”.

OpenAI dijo que su nuevo detector podría identificar correctamente el 98,8 por ciento de las imágenes creadas por DALL-E 3, la última versión de su generador de imágenes. Pero la compañía dijo que la herramienta no fue diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.

Debido a que este tipo de detector de deepfake se basa en probabilidades, nunca podrá ser perfecto. Entonces, como muchas otras empresas, organizaciones sin fines de lucro y laboratorios académicos, OpenAI está trabajando para combatir el problema de otras maneras.

Al igual que los gigantes tecnológicos Google y Meta, la compañía se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, un esfuerzo para desarrollar credenciales para contenido digital. El estándar C2PA es una especie de “etiqueta nutricional” para imágenes, vídeos, clips de audio y otros archivos que muestra cuándo y cómo fueron producidos o alterados, incluso con IA.

OpenAI también dijo que estaba desarrollando formas de poner marcas de agua en los sonidos generados por IA para que pudieran identificarse fácilmente en el momento. La empresa espera que estas marcas de agua sean difíciles de eliminar.

Anclada por empresas como OpenAI, Google y Meta, la industria de la IA se enfrenta a una presión cada vez mayor para dar cuenta del contenido que generan sus productos. Los expertos piden a la industria que impida que los usuarios generen material engañoso y malicioso y que ofrezca formas de rastrear su origen y distribución.

En un año repleto de elecciones importantes en todo el mundo, los pedidos de formas de monitorear el linaje del contenido de IA son cada vez más desesperados. En los últimos meses, el audio y las imágenes ya han afectado las campañas políticas y las votaciones en lugares como Eslovaquia, Taiwán e India.

El nuevo detector de deepfake de OpenAI puede ayudar a solucionar el problema, pero no lo resolverá. Como dijo la Sra. Agarwal: En la lucha contra los deepfakes, “no existe una solución milagrosa”.

Compartir
Exit mobile version