Por qué los expertos insisten en un supuesto riesgo existencial de la inteligencia artificial - RED/ACCIÓN

Por qué los expertos insisten en un supuesto riesgo existencial de la inteligencia artificial

 Una iniciativa de Dircoms + RED/ACCION

El Center for IA Safety sacó un comunicado en el que pide mitigar el peligro de extinción humana de la IA, asegurando que debería ser una prioridad mundial. La afirmación fue apoyada por grandes referentes como Sam Altman o Bill Gates, ¿por qué?

Por qué los expertos insisten en un supuesto riesgo existencial de la inteligencia artificial

Crédito: Freepik

Las preocupaciones crecen de la mano del avance de la inteligencia artificial. En respuesta, varios expertos decidieron alzar sus voces para exigir políticas de regulación debido a las amenazas que presenta esta tecnología sin ningún tipo de normas legales ni éticas. 

Según una nota del medio Tech Church, muchas figuras dieron su opinión acerca de la urgencia de regular y establecer políticas obligatorias, tales como Sam Altman, CEO de OpenIA; Demis Hassabis, CEO de DeepMind; Geoffrey Hinton, ex informático de Google; y Bill Gates, pionero de la tecnología. 

Consecuentemente, estos líderes – entre otros muchos otros referentes– pusieron su nombre en una declaración emitida por CAIS (Center for AI safety) que asegura que mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, al igual que otros riesgos a escala social como la pandemia y posibles  guerras nucleares. 

En el último tiempo hubo mucha prensa alrededor de la idea de una posible “extinción” humana debido a la IA. En una nota la periodista especializada en tecnología, Natasha Lomas, aseguró: “Este bombardeo de titulares amarillistas ha desviado la atención de un examen más profundo de los daños existentes”. 

Según Lomas, hay riesgos que son mucho más urgentes, que están mucho más cerca nuestro y que nos afectan de manera más directa que una futura “extinción” humana. Por ejemplo, el uso gratuito de datos protegidos por derechos de autor para entrenar sistemas de IA sin permiso ni consentimiento, defectos como la desinformación y el sesgo o incluso el coste medioambiental de la energía empleada para entrenar algoritmos. 

“Hay razones claras por las cuales los expertos de la IA quieren que la ruta de las políticas regulatorias se enfoquen en un futuro hipotético como una estrategia para alejar a las mentes de consideraciones que implican el hoy y el ahora”, profundiza la periodista. 

De hecho, hace un tiempo Elon Musk , tuvo la iniciativa de generar una carta abierta pidiendo que se pausara el desarrollo de la IA por seis meses para que se puedan estudiar y establecer protocolos de seguridad. Altman, CEO de OpenIA, no firmó esta carta ya que eso implicaría el congelamiento de su empresa. En cambio, sí decidió apoyar el anuncio de CAIS, mencionado anteriormente que atenta contra los riesgos más “existenciales” de la IA. La pregunta es, ¿por qué? 

Debido a esta polémica, el director de CAIS, Dan Hendricks, amplió en Twitter sobre la declaración diciendo que algunas de las amenazas, además del riesgo de extinción, son el sesgo sistémico, la desinformación, el uso malintencionado, los ciberataques y el armamentismo. 

Las posturas de los expertos en IA condicionan nuestro futuro con respecto a esta tecnología. Sus voces son las que divulgan el conocimiento y las que orientan la lucha para que progrese de una manera constructiva para la sociedad.