OpenAI detalló un plan para impedir la desinformación electoral en 2024 - RED/ACCIÓN

OpenAI detalló un plan para impedir la desinformación electoral en 2024

 Una iniciativa de Dircoms + RED/ACCION

Algunas de las medidas incluyen no permitir la creación de chatbots que imiten a alguna persona o institución real como también la incorporación de las marcas de agua a contenidos visuales generados por la inteligencia artificial.

OpenAI detalló un plan para impedir la desinformación electoral en 2024

Imagen de ijeab en Freepik

La desinformación es uno de los riesgos de la inteligencia artificial. Y no es solo una sensación. La reciente edición anual del estudio Riesgos Globales desarrollado por el Foro Económico Mundial afirma que la información falsa y engañosa generada con inteligencia artificial  es la principal amenaza a nivel global en el corto plazo (los próximos dos años) y el segundo mayor riesgo en la próxima década (por detrás del cambio climático).

Los ojos, entonces, están hacia los dueños y creadores de todas estas herramientas capaces de generar contenido. Especialmente en este año que está caracterizado por la cantidad de elecciones que habrá a lo largo y ancho de todo el mundo, incluyendo las de Estados Unidos, India y Rusia, entre otros países. 

El pasado 15 de enero, Open AI, la empresa dueña de ChatGPT y DALL E-3, expresó en su blog que están diseñando políticas de seguridad clave para este año cargado de elecciones. Estás se pensaron para que los usuarios no usen de manera indebida sus herramientas, que pueden crear texto e imágenes con alto nivel de exactitud y verosimilitud en segundos. 

“Proteger la integridad de las elecciones requiere la colaboración de todos los rincones del proceso democrático”, expresó la compañía en su comunicado. “Queremos asegurarnos de que nuestra tecnología no se utiliza de forma que pueda socavar este proceso”, profundizaron. 

OpenAI hace poco lanzó GPTs, la iniciativa que permite a los usuarios crear chatbots personalizados. En esta línea, para prevenir el abuso de la herramienta, la empresa prohibió que los creadores generen chatbots que se hagan pasar por personas o instituciones reales como así tampoco permiten aplicaciones que disuadan a la gente de participar en los procesos democráticos o que desalienten el voto. 

En cambio, sí permite la creación de GPTs dedicados y entrenados para la detección de fake news o contenidos dudosos. Hay muchos de estos bots que hoy pueden ser utilizados por los usuarios. Sus funciones varían desde justificar (o contradecir) con fuentes la información insertada hasta verificar la veracidad de datos. 

Además, a comienzos de este año la empresa declaró que incluirán marca de agua digital en las imágenes creadas DALL E-3, su tecnología generadora de contenido visual. Así, las personas podrán identificar el origen de una foto y si fue producto de un prompt o de la realidad.  En este sentido, ChatGPT ahora cita las referencias de donde saca la información, ya que tiene acceso a datos en tiempo real (en su versión paga).

Por último, en Estados Unidos, la empresa se juntó con la Asociación Nacional de Secretarios de Estado (NASS), la organización profesional no partidista de funcionarios públicos. ChatGPT dirigirá a los usuarios a CanIVote.org, el sitio web autorizado sobre información electoral en Estados Unidos, cuando se les planteen determinadas dudas en relación a procesos democráticos y votación. 

Mekela Panditharatne, asesora del programa de democracia del Centro Brennan para la Justicia, expresó para Quartz que los planes de OpenAI son un paso positivo hacia la lucha contra la desinformación electoral, pero dependerá de cómo se apliquen. "Por ejemplo, ¿hasta qué punto serán exhaustivos y completos los filtros a la hora de señalar cuestiones sobre el proceso electoral? ¿Habrá elementos que se escapen?", planteó.

En esta línea, Darrell West, investigador principal del Centro de Innovación Tecnológica de la Brooking Institution, relfexionó para The Associated Press que sería útil que otras empresas de inteligencia artificial generativa adoptaran medidas similares.

De acuerdo con CNN, este escenario de elecciones en pleno auge de la IA presenta desafíos para los arquitectos de campaña. Para ello, Arpit Garg, consejero general adjunto de la campaña de Joe Biden, declaró que la idea es tener preparados "modelos y borradores de alegatos" que puedan presentarse ante los tribunales estadounidenses o ante organismos reguladores fuera del país para combatir a los actores extranjeros de la desinformación".

Te dejo más contenidos sobre inteligencia artificial, desinformación y las elecciones de este año: