Cuatro gigantes de la inteligencia artificial crearon Frontier Model Forum, una organización para autorregularse - RED/ACCIÓN

Cuatro gigantes de la inteligencia artificial crearon Frontier Model Forum, una organización para autorregularse

 Una iniciativa de Dircoms + RED/ACCION

Google, OpenAI, Anthropic y Microsoft dijeron que el Foro del Modelo de Frontera, en español, servirá para regular los distintos sistemas desarrollados con IA con el fin último de no interponerse ante la salud pública.

Cuatro gigantes de la inteligencia artificial crearon Frontier Model Forum, una organización para autorregularse

Créditos: OpenAI.

Cuatro empresas reconocidas por trabajar en aplicaciones y plataformas desarrolladas con inteligencia artificial anunciaron una nueva organización para regular los riesgos tecnológicos y éticos que implica esta tecnología. Se trata de: Google, OpenAI, Anthropic y Microsoft y Anthropic, que se encargarán de llevar adelante el Frontier Model Forum (Foro del Modelo de Frontera en español).

La organización buscará promover el desarrollo responsable de los modelos de IA. De esta manera, los miembros dijeron que compartirán información clave entre ellos para asegurarse de realizar buenas prácticas en el desarrollo de estos nuevos modelos tecnológicos.

La principal razón de la creación de este foro se debe a la preocupación de organismos internacionales y gubernamentales frente al avance de sistemas como ChatGPT, Bard, Bing, DALE-E. En particular, sobre la información que brindan estos sistemas y/o el uso malicioso que pueden realizar algunos usuarios sin ninguna regulación por parte de las empresas. 

De hecho, el director de OpenAi, Sam Altman y el líder de DeepMind, señalaron en junio la importancia de luchar para disminuir los riesgos para la humanidad vinculados a la IA.

Por su parte, la Unión Europea está trabajando en un proyecto para regularizar la inteligencia artificial en los países que integran el bloque y obligar a las empresas a tener un mayor control humano sobre las plataformas. 

China, por otro lado, es el primer país en regular la IA. En un comunicado el país asiático dijo que buscará “promover el desarrollo saludable y la aplicación estandarizada de la inteligencia artificial para salvaguardar la seguridad nacional y los intereses públicos y sociales y proteger los derechos e intereses legítimos de los ciudadanos, personas jurídicas y otras organizaciones”. La medida comenzaría a aplicarse el próximo 15 de agosto.

Estados Unidos, en cambio, solicitó a las empresas como Google, OpenAI y Microsoft que se encarguen de garantizar la seguridad de sus productos en nombre de su deber moral. Asimismo, la semana pasada el Gobierno de Joe Biden aseguró que están trabajando a puertas cerradas con Amazon, Google, Inflection, Anthropic, Microsoft, OpenAI y Meta para defender “tres principios” en el desarrollo de nuevos sistemas de IA: protección, seguridad y confianza.

Mientras tanto, OpenAi está trabajando en una inteligencia artificial que contará con capacidades cognitivas que imitarán a las humanas. Según informó la empresa en una publicación en redes sociales, se trata de modelos altamente sofisticados que podrían adquirir capacidades que podrían plantear “riesgos graves para la salud pública".