De cara a un año electoral, Meta etiquetará las imágenes creadas con IA que circulen en sus redes sociales - RED/ACCIÓN

De cara a un año electoral, Meta etiquetará las imágenes creadas con IA que circulen en sus redes sociales

 Una iniciativa de Dircoms + RED/ACCION

Junto a otras grandes empresas, se están desarrollando estándares técnicos para identificar fotos, audios y videos no reales. La medida forma parte de una iniciativa que la compañía ya puso en práctica en sus plataformas tiempo atrás con los contenidos creados con la función Meta IA.

De cara a un año electoral, Meta etiquetará las imágenes creadas con IA que circulen en sus redes sociales

Crédito: Foto de Kerde Severin para Pexels.

Luego de la caótica audiencia que enfrentó Mark Zuckerberg la semana pasada, su empresa parece estar tomando acciones en relación a políticas de seguridad y transparencia. En este caso, dirigidas al problema de la inteligencia artificial (IA) y la desinformación a través de los deepfakes

De hecho, el martes 6 de enero Meta sacó un comunicado oficial en el que declaró que dentro de los próximos meses se etiquetarán las imágenes que los usuarios publiquen en Facebook, Instagram y Threads (las tres redes sociales que maneja la compañía) cuando se pueda detectar que fueron generadas por IA. 

En detalle, explicaron que esto se debe a que cada vez se difumina más el límite y la diferencia entre aquellos contenidos reales y aquellos creados con herramientas de esta nueva tecnología. En consecuencia, los usuarios se encuentran en un círculo vicioso donde es difícil de identificar, pero también difícil de no creer.

Para ello, la empresa ya está dialogando y trabajando con socios del sector en estándares técnicos comunes para identificar contenidos hechos con IA, incluyendo video y audio. Así, se estima que en los próximos meses se empezarán a ver etiquetas en todos los idiomas disponibles en cada aplicación. 

“Es una especie de señal de que están tomando en serio el hecho de que la generación de contenido falso en internet es un problema para sus plataformas”, explicó a The Associated Press Gili Vidan, profesora de ciencias de la información en la Universidad de Cornell, Estados Unidos. “Podría ser bastante eficaz para marcar una gran parte del contenido generado por IA pero probablemente no lo captará todo”, profundizó. 

Esta no es la primera vez que la empresa fomenta una política de este tipo. Hace un tiempo todos los contenidos creados con la función Meta IA, una herramienta que genera imágenes y videos a partir de indicaciones de texto, llevan una marca de agua que aclara “Imaginado con IA”. 

Además, esta nueva extensión aparece en el marco de un año caracterizado por más de 50 elecciones democráticas, la de Estados Unidos y Rusia incluídas, que determinarán el mapa geopolítico del mundo. Las redes sociales, en este proceso, deben funcionar como un aliado para acercar información verídica.

Todavía hay dudas respecto a la eficacia de la medida. Sam Gregory, director de programas de la ONG Witness, que ayuda a la gente a utilizar la tecnología para apoyar los derechos humanos, afirmó a Wired que este es un paso en la dirección correcta, pero que también presenta grandes desafíos. Entre ellos, el especialista identificó que la única forma de que un sistema así sea eficaz es que participen en la iniciativa una amplia gama de herramientas y plataformas generativas.

Al respecto, aunque Meta está codeándose con las empresas tecnológicas más grandes, como Google, OpenAI y Microsoft hay muchas otras plataformas (cada día más) muy fáciles de acceder y sencillas de usar que no utilizan marcas de agua ni etiquetas.   

Además, este tipo de políticas no serán un impedimento para quienes intenten usar la inteligencia artificial con fines maliciosos. Sumado a que todavía no hay ninguna regulación internacional que obligue a las empresas creadoras de las herramientas a insertar marcas de agua en sus contenidos. 

"Las personas y organizaciones que quieran engañar activamente a la gente con contenidos generados por IA buscarán formas de eludir las normas establecidas para detectarlo”, explicó Nick Clegg, presidente de Asuntos Globales de Meta, según The Guardian.