Nuevo acuerdo busca prevenir el desarrollo de armas biológicas potenciadas por inteligencia artificial - RED/ACCIÓN

Nuevo acuerdo busca prevenir el desarrollo de armas biológicas potenciadas por inteligencia artificial

 Una iniciativa de Dircoms + RED/ACCION

Más de 90 expertos, entre ellos el reconocido Premio Nobel Frances Arnold, pusieron su nombre en un documento. Allí se formulan principios, misiones, valores y compromisos inobjetables para el uso de esta nueva tecnología en las investigaciones biológicas.

Expertos de diversas áreas están subrayando los peligros potenciales de la inteligencia artificial. Ahora, para prevenir el uso de los nuevos sistemas tecnológicos para el diseño y la difusión de armas biológicas, más de 90 biólogos y otros científicos especializados en tecnologías para diseñar proteínas (los mecanismos microscópicos que impulsan todas las creaciones en biología) firmaron un acuerdo que pretende garantizar que su investigación asistida por la IA progresará sin exponer al mundo a daños graves, informó The New York Times.

Un arma biológica es, de acuerdo a la explicación de DW, el uso de microorganismos como virus, bacterias, hongos y toxinas, como la ricina, con la intención de liberarlos en la sociedad para causar enfermedades y hasta la muerte en humanos, animales o plantas a una escala global.

El acuerdo incluye una lista de valores y principios para guiar el desarrollo responsable de las tecnologías de inteligencia artificial dentro del área de estudio. “Dados los avances previstos en este campo, puede ser necesario un nuevo enfoque proactivo de gestión de riesgos para mitigar el potencial de desarrollo de tecnologías de IA que podrían ser mal utilizadas, intencionadamente o no, para causar daños”, detalla el acuerdo. 

Uno de los principios es la motivación inobjetable de conducir investigaciones con el fin de beneficiar a la humanidad. A partir de ahí, desarrollan otros compromisos como la revisión constante de los riesgos de sus diseños a futuro y, en el caso de existir, incrementar la vigilancia y la comunicación de los beneficios. 

Un informe publicado en octubre de 2023 por Rand Corporation —una organización sin fines de lucro dedicada a la investigación— aseguró que los modelos de lenguaje (LLM) en los que se basa la tecnología de la inteligencia artificial todavía no han dado instrucciones específicas para crear armas biológicas, pero pueden ofrecer una orientación y guía para su ejecución y planeación.

No obstante, en el acuerdo los científicos también establecieron que, aunque la sociedad se adelante a los presuntos riesgos, todos estos avances tecnológicos significan y traerán grandes beneficios para la humanidad. Por ejemplo, el desarrollo de nuevas vacunas o curas de enfermedades.

“Es un buen comienzo", expresó a Nature Mark Dybul, especialista en política sanitaria mundial de la Universidad de Georgetown, en Washington DC, que dirigió un informe sobre IA y bioseguridad para el think tank Helena (2023) en Los Ángeles. Sin embargo, Dybul advirtió que no alcanza con una guía voluntaria, sino que se necesitan medidas y normas por parte de los gobiernos. 

El Gobierno de Estados Unidos dio un primer paso en relación a la bioseguridad. En octubre de 2023, el presidente Joe Biden firmó una orden ejecutiva en la que se pedía una evaluación de dichos riesgos.