​​Según Yuval Noah Harari, la IA pone en peligro el sistema operativo de la civilización humana - RED/ACCIÓN

​​Según Yuval Noah Harari, la IA pone en peligro el sistema operativo de la civilización humana

 Una iniciativa de Dircoms + RED/ACCION

Una vez más la humanidad se enfrenta a una revolución tecnológica. Yuval Harari, filósofo e historiador, señala que si la Inteligencia Artificial no se regula y se usa de manera irresponsable esta amenaza el dominio del hombre en el mundo.

​​Según Yuval Noah Harari, la IA pone en peligro el sistema operativo de la civilización humana

Crédito: Página Oficial de Yuval Harari

Las innovaciones tecnológicas generan cambios (algunos irreversibles) en la manera en que nos relacionamos, comunicamos, pensamos y sentimos. No basta viajar unos treinta años atrás cuando el fenómeno de la Internet generaba temor y dudas en las personas sobre el futuro de la sociedad. Hoy, el escenario se repite. Pero esta vez de la mano de la Inteligencia Artificial. 

Yuval Harari, historiador y filósofo israelí, argumentó en una nota de The Economist que las nuevas herramientas de IA cambiarán el curso de la humanidad por completo. “La IA ha ganado algunas habilidades remarcables para manipular y generar lenguaje, tanto con sonidos como con palabras. IA ha, entonces, hackeado el sistema operativo humano de nuestra civilización”, expresó Harari. 

La capacidad que tiene la IA de generar lenguaje es lo que más alarma al historiador. Esto se debe a que nuestro mundo, relaciones y pensamientos están construidos a través de él. Por ejemplo, los derechos humanos: los creamos a través de escritos y discusiones. Según Harari, en cuanto la tecnología tome posesión de esta actividad tomará, por inercia, el control de muchas dimensiones en la vida humana.

Según el filósofo pronto estaremos discutiendo en una conversación con ChatGPT si el aborto es legítimo o cómo tratar el cambio climático. De este modo, algo impensado se desarrollará: un vínculo. “A través de su maestría de lenguaje, IA podrá formar relaciones íntimas con las personas y usar el poder de esa intimidad para cambiar nuestras opiniones y perspectivas del mundo”, afirmó Harari. 

A diferencia de las redes sociales, la IA busca convocar la intimidad del humano en vez de la atención. Así, el surgimiento de estos vínculos se podrá traspolar a los intereses políticos. Al conquistar la intimidad de un ser humano, se podrá conquistar su voto también. 

Sin embargo, aún sin generar esta relación íntima entre los humanos y la IA, esta última puede tener una gran influencia en las decisiones que tomamos. Según el filósofo, la IA pronto tomará el carácter de un oráculo el cual utilizaremos para preguntarle cualquier cosa: las últimas noticias, los últimos productos. De esta forma, muchas de las profesiones tienen un posible destino de extinción debido a que no van a tener más relevancia.

“Estamos hablando de lo que es potencialmente el final de la historia humana. No el final de la historia, sino el final de la parte dominada por humanos”, profundizó Harari. 

“Qué pasará cuando la IA tome la cultura y comience a producir historias, melodías, leyes o religiones?”, se preguntó.

Entonces, se remite al problema principal, con la capacidad de crear lenguaje hay una posibilidad de crear cultura nueva. Así, los humanos tendrán la posibilidad de sumergirse en cuentos, escritos o canciones que son solo una ilusión. Pero, ¿cómo nos daremos cuenta? Ese es el gran peligro. 

Existen, según Harari, diferentes acciones que se pueden realizar para frenar el crecimiento y la dominación de la IA. Una de ellas es demandar chequeos rigurosos de seguridad antes de lanzar las herramientas de IA al público. En otras palabras, desarrollar una agencia internacional para la regularización de la IA.

“Acabamos de encontrarnos con una inteligencia alienígena, aquí en la Tierra. No sabemos mucho sobre ella, salvo que podría destruir nuestra civilización. Deberíamos poner fin al despliegue irresponsable de herramientas de Inteligencia Artificial en la esfera pública, y regular la Inteligencia Artificial antes de que ella nos regule a nosotros”, concluye el filósofo para The Economist.