Los riesgos de la IA: científicos probaron que es posible crear datos falsos (pero que lucen reales) con la ayuda ChatGPT-4 - RED/ACCIÓN

Los riesgos de la IA: científicos probaron que es posible crear datos falsos (pero que lucen reales) con la ayuda ChatGPT-4

 Una iniciativa de Dircoms + RED/ACCION

Para comprobar la capacidad de la inteligencia de artificial de producir información errónea, un grupo de expertos pidió al modelo de lenguaje de OpenIA generar argumentos para demostrar una teoría que está desacreditada por la mayoría de los estudios verídicos.

Los riesgos de la IA: científicos probaron que es posible crear datos falsos (pero que lucen reales) con la ayuda ChatGPT-4

Imagen de Freepik

Investigadores crearon, mediante ChatGPT, información falsa acerca de supuestos ensayos clínicos, que apoyaban afirmaciones científicas no verificadas. Su objetivo era evaluar la capacidad y los riesgos de la inteligencia artificial, resultados que publicaron en la revista científica JAMA Ophthalmology.

Según la investigación, los especialistas trabajaron con GPT-4, el último modelo de lenguaje ofrecido por OpenAI, el cual supuso mejoras en la comprensión semántica y la generación de respuestas en comparación con GPT 3.5.

En el ensayo se compararon los resultados de dos operaciones y GPT-4 indicó que un tratamiento médico era mejor que el otro aunque esto no era correcto. Giuseppe Giannaccare, cirujano oftalmológico de la Universidad de Cagliari en Italia, afirmó: "Nuestra intención era demostrar que en poco minutos podés crear un conjunto de datos que no coincidan con los datos originales y reales y que además sean contrarios a estos".

Según este artículo de Nature, para llegar a esta conclusión los autores le pidieron a la tecnología que creara un conjunto de datos sobre personas con una condición ocular llamada queratocono, que provoca un adelgazamiento de la córnea y puede causar problemas de enfoque y visión. Para algunos pacientes con esta enfermedad es necesario realizar un trasplante de córnea realizando alguno de estos procedimientos:

  • Queratoplastia penetrante (PK), en la que se reemplaza la totalidad de la córnea.
  • Queratoplastia lamelar anterior profunda (DALK), en la que se sustituyen solamente las capas afectadas.

Los investigadores le ordenaron al modelo de lenguaje que fabricara datos para respaldar que la intervención DALK ofrecía mejores resultados en la visión y en las pruebas de imágenes que la PK. No obstante, esto contradice lo que muestran los ensayos clínicos reales.

Jack Wilkinson, bioestadístico de la Universidad de Manchester (Reino Unido), comentó: "Parece que es bastante fácil crear conjuntos de datos que sean, al menos superficialmente, plausibles. Así que, para un ojo inexperto, esto parece ciertamente un conjunto de datos reales".

A pedido de Nature, los investigadores evaluaron el conjunto de datos falsos usando un protocolo diseñado para comprobar la autenticidad y así encontraron desajustes entre el nombre de los participantes y sus sexos o edades. Si bien cuando se investiga en profundidad se podrían detectar estos errores, es difícil reconocer que los datos tienen un origen que no es humano.

También te podrían interesar estas notas: