En Estados Unidos, un nuevo proyecto de ley exige avisar cuando un contenido es generado por inteligencia artificial - RED/ACCIÓN

En Estados Unidos, un nuevo proyecto de ley exige avisar cuando un contenido es generado por inteligencia artificial

 Una iniciativa de Dircoms + RED/ACCION

La medida se discutió particularmente en el estado de Pensilvania, donde se aprobó con la mayoría de los votos. Esta nueva iniciativa forma parte de un movimiento global tanto de los gobiernos como por parte de las empresas tecnológicas de amortiguar los efectos desinformativos de la IA.

Las herramientas de inteligencia artificial están generando contenido cada vez más difícil de distinguir de la realidad. Por eso, en materia de regulación, una de las propuestas que viene circulando en distintos Estados es que cada contenido generado por inteligencia artificial tenga una especie de “marca de agua” para que las personas puedan reconocerlo. 

En esa línea, la semana pasada la Casa de Representantes en Pensilvania, un estado al este de EE.UU.,  aprobó un proyecto de ley en el cual los consumidores deberán ser notificados cuando un contenido es generado por inteligencia artificial, según informa Quartz. La votación ganó con un total de 154 representantes a favor y 54 en contra, con los demócratas inclinando la balanza a favor. Ahora, pasará al Senado para su consideración final. 

“Esta normativa dará a las personas que lean o vean contenidos generados por la inteligencia artificial la información que necesitan para tomar decisiones adecuadas y no ser engañadas”, dijo en la presentación de la ley el diputado Chris Pirelli, demócrata por el condado de Chester. “No podemos permitir un futuro en el que la gente no sepa si está interactuando con un programa informático o con otra persona”, profundizó. 

En detalle, de acuerdo con The Associated Press, la nueva regulación modificaría la Ley Estatal de Prácticas Comerciales Desleales y Protección de los Consumidores para exigir una "divulgación clara y conspicua" cuando se haya utilizado inteligencia artificial para crear texto escrito, imágenes, audio o vídeo.

Esta práctica ya se viene pensando no solo por los Gobiernos, sino también por las empresas dueñas de estas tecnologías. Meta, por ejemplo, anunció la semana pasada que comenzarán a etiquetar a sus contenidos con marcas de agua que digan “creado por inteligencia artificial” para combatir la desinformación y la manipulación de audios, fotos y videos, especialmente de cara a las elecciones estadounidenses. 

“Es una especie de señal de que están tomando en serio el hecho de que la generación de contenido falso en internet es un problema para sus plataformas”, explicó a The Associated Press Gili Vidan, profesora de Ciencias de la Información en la Universidad de Cornell, Estados Unidos. “Podría ser bastante eficaz para marcar una gran parte del contenido generado por IA pero probablemente no lo captará todo”, profundizó. 

YouTube, también tomó este mismo camino. Hace poco más de un mes la plataforma lanzó una nueva herramienta en el Creator Studio que obliga a los creadores a informar a los espectadores cuando un contenido se ha creado con medios sintéticos. “La nueva etiqueta pretende reforzar la transparencia con los espectadores y generar confianza entre los creadores y su público”, manifiesta la compañía en el comunicado oficial. 

Sin embargo, todavía hay dudas respecto a la eficacia de la medida. Sam Gregory, director de Programas de la ONG Witness, que ayuda a la gente a utilizar la tecnología para apoyar los derechos humanos, afirmó a Wired que este es un paso en la dirección correcta, pero que también presenta grandes desafíos. Entre ellos, el especialista identificó que la única forma de que un sistema así sea eficaz es que participen en la iniciativa una amplia gama de herramientas y plataformas generativas.