La IA en manos equivocadas: los riesgos del fraude y el auge de la desinformación  - RED/ACCIÓN

La IA en manos equivocadas: los riesgos del fraude y el auge de la desinformación 

 Una iniciativa de Dircoms + RED/ACCION

Con la multiplicación de plataformas de inteligencia artificial de acceso público, se agravan los riesgos de estafas y del crecimiento de la desinformación a gran escala.

La IA en manos equivocadas: los riesgos del fraude y el auge de la desinformación 

Imagen de Freepik

¿Cuáles son las consecuentes negativas del auge de las herramientas de inteligencia artificial? Yuval Harari, filósofo, planteó recientemente esta cuestión en una discusión con Yann LeCun, jefe de investigación de Meta, para la revista francesa Le Point. “La pregunta es, ¿en qué manos de quién está?”, cuestionó el escritor “Podría ser maravilloso pero en las manos incorrectas podría destruir la democracia”, concluyó. 

A la par de estas discusiones, los nombrados “estafadores” o “estafas” ya son una realidad en el mundo de la inteligencia artificial. Las predicciones de Harari están cumpliendose paso a paso: las personas mal intencionadas están haciendo uso de ciertas plataformas para obtener beneficios propios. 

Según The Wall Street Journal una estafa que está en auge consiste en crear audios y videos que sean iguales a las de un familiar o un amigo. Por ejemplo,  en China un hombre recibió una llamada de video en la cual un estafador —haciéndose pasar por un amigo— lo convenció para que hiciera una transferencia de 600 mil dólares. Luego de hacerla, llamó a su amigo —el real— y se dio cuenta que fue una estafa. “Tuvimos una videollamada, reconocí su cara y su voz, por eso bajé mis defensas”, confesó la víctima. 

¿Cómo lo hacen? Los estafadores usan tecnología de intercambio de rostros y síntesis de voz, A partir de este hecho, en China es un acto ilegal crear videos falsos, audios falsos o textos para difundir información. 

Otra estafa muy común está siendo ejecutada de la mano de ChatGPT, según Logic Loop, una empresa que se dedica a proteger datos. En este reporte, establece que las personas pueden usar el bot de OpenAI para suplantar la identidad de una plataforma y convencer a los usuarios de que entreguen sus datos de acceso. 

Ejemplo de cómo los estafadores pueden usar ChatGPT para solicitar información privada a los usuarios. Crédito: Logic Loop. 

The Dallas Morning News, reporta que otra de las estafas más recurrentes es el uso de la IA para crear contenidos falsos. Esto incluye desde reseñas de productos en plataformas como Amazon hasta noticias falsas o incluso historias ficticias acerca de políticos. Por ejemplo, el año pasado se filtró un video de Volodymyr Zelensky rindiendose ante Rusia que era, claramente, falso. 

Esto último se podría englobar en una sola palabra: la desinformación, la amenaza más grande ya que atenta contra la realidad. En un mundo tan atomizado, digitalizado y rápido es difícil poder distinguir qué es cierto y qué no. Es más fácil creer que dudar.