En el auge de la desinformación, prueban un sistema que detecta contenido generado por inteligencia artificial - RED/ACCIÓN

En el auge de la desinformación, prueban un sistema que detecta contenido generado por inteligencia artificial

 Una iniciativa de Dircoms + RED/ACCION

OpenAI anunció que está desarrollando una herramienta para detectar cuando un material audiovisual fue creado con DALL E-3, su generador de imágenes. Sin embargo, los especialistas presentan dudas de si este es realmente el camino.

Los deepfakes —contenidos audiovisuales generados por inteligencia artificial— presentan una amenaza para las personas y su derecho a informarse. De hecho, confundir una imagen o video falso con uno de la realidad ya es difícil hoy. Por eso, hay un pedido continuo a las empresas tecnológicas para que desarrollen herramientas, igual de eficaces que sus sistemas de IA, pero con el objetivo de cooperar a la identificación de estos contenidos falsos.

En esta línea, un comunicado oficial OpenAI anunció que están diseñando una herramienta para detectar contenidos creados por su propio generador de imágenes, DALL-E. El proyecto, que aún está en etapa de evaluación, está siendo probado por un pequeño grupo de investigadores especializados en desinformación y autenticidad de contenidos. 

En detalle, este nuevo clasificador de imágenes logró identificar correctamente el 98 % de las imágenes creadas por DALL E-3 que fueron puestas a prueba. Sin embargo, cuando se trata de detectar contenidos que son generados por otras aplicaciones, como Midjourney o Stability, la herramienta no tiene el mismo rendimiento. 

Muestra de la nueva herramienta de OpenAI que detecta imágenes generadas por DALL E-3. Crédito: OpenAI. 

Según The New York Times, OpenAI anunció que se unirá a la Coalición para la Procedencia y Autenticidad del Contenido, una iniciativa en la que también participan empresas como Meta o Google con el propósito de desarrollar marcas de agua para los productos generados o alterados con IA. En síntesis, una forma de combatir la desinformación que ya está presente en nuestra cotidianeidad.

Junto con Microsoft, Open AI también anunció la inversión de 2 millones de dólares en un “fondo de resiliencia social” para invertir en promover la educación y la alfabetización digital en inteligencia artificial. De acuerdo con las empresas, el poco conocimiento de las herramientas fue uno de las preocupaciones que identificaron en sus conferencias alrededor del mundo. 

La atención está puesta en las empresas tecnológicas especialmente este año, cuando más de 2 mil millones de personas manifestarán sus votos en las urnas, incluido Estados Unidos. “Las democracias ya han superado la era en la que podemos confiar en que las empresas se autorregulan”, dijo a Politico Meredith Whittaker, cofundadora del AI Now Institute, que vio un borrador del documento la semana pasada.

No obstante, ¿serán suficientes estas iniciativas? “Ninguna de las personas con las que hablé parecía estar segura de que estos enfoques pudieran evitar colectivamente este apocalípsis de información”, reflexionó en un artículo Casey Newton, fundador y editor de Platformer, medio dedicado a la cobertura de tecnología. “Todavía hay que lograr avances técnicos para crear metadatos que no puedan eliminarse. Y se necesitará tiempo para que la alfabetización digital de los votantes esté a la altura del estado de la técnica”, profundizó. 

Daniel Leufer, analista político de la organización de derechos digitales Access Now, explicó a MIT Technology Review que, por ejemplo, poner marcas de agua en todos los contenidos es, en primer lugar, imposible de realizar. Segundo, es contraproducente, ya que todos los usuarios tiene acceso al código fuente del modelo, por lo que los usuarios específicos pueden simplemente eliminar cualquier cosa que no deseen.