Kate Crawford: “La inteligencia artificial amenaza con aumentar las desigualdades y limitar las libertades individuales”- RED/ACCIÓN

Kate Crawford: “La inteligencia artificial amenaza con aumentar las desigualdades y limitar las libertades individuales”

 Una iniciativa de Dircoms + RED/ACCION
Kate Crawford: “La inteligencia artificial amenaza con aumentar las desigualdades y limitar las libertades individuales”

Es la mirada de la investigadora líder de Microsoft, exmano derecha de Barak Obama en el tema, y una de las personas que más está luchando contra la grieta social y política que está generando la revolución tecnológica. "Quien controle la Inteligencia Artificial, controlará el mundo", alerta la experta.

Crawford, que antes de zambullirse en el mundo de la tecnología lanzó tres álbumes y fue parte de un popular dúo de música electrónica en Australia, está enfocada en sacar a la luz los problemas sociales derivados de la revolución digital. Ella se dedica a estudiar cómo los algoritmos marginan a las minorías.

La irrupción de la inteligencia artificial y los algoritmos están teniendo un enorme impacto en la sociedad y Crawford advierte que si no se regula, amenaza con aumentar las desigualdades y socavar las libertades individuales.

La revolución tecnológica ya es una realidad y está cambiando rápidamente el trabajo, muchos de los cuales están desapareciendo y se están simplificando. Un estudio de McKinsey del año pasado advierte que esto generará aún mayor inequidad.

  • El Banco Mundial dice que el 57% de los trabajos en las economías desarrolladas están amenazados por la robotización y la inteligencia artificial y la automatización está creciendo a una tasa de 15% anual.
  • Dos de cada tres chicos que ahora entran a la escuela van a terminar trabajando en empleos que hoy no existen.

El Gobierno de Mauricio Macri ha hecho una fuerte apuesta a la economía del conocimiento y usar la revolución digital como una herramienta de inclusión y desarrollo. Y es por eso que invitaron a Crawford a Buenos Aires esta semana, en el marco del programa Argentina 2030 de la Jefatura de Gabinete.

“Creo que Argentina está muy bien ubicada para convocar a más expertos de diferentes disciplinas para empezar a pensar en las implicancias sociales de la inteligencia artificial. Posicionaría a la Argentina en un lugar de liderazgo, junto con otros países que están viendo esto como un tema interdisciplinario y social”, dijo Crawford en una reunión con periodistas en la Casa Rosada.

Crawford, que se reunió con Macri, dice que “ustedes tienen científicos sociales, antropólogos y sociólogos que están analizando el impacto social de esta tecnología. Hay que ver cómo se los incluye para que sean parte de estos desafíos de investigación. Creo que se podría hacer".

El peligro de que no se regule

La razón por la cual la investigadora cree que es urgente desarrollar políticas públicas para regular la irrupción de la inteligencia artificial es porque está convencida de que si no lo hacemos, tendremos que enfrentar un enorme conflicto social.

El primer problema que ve es que la inteligencia artificial está concentrada en pocas manos: “Hay solo cinco grandes compañías en los Estados Unidos que están desarrollando inteligencia artificial y otras cuatro en China”, explicó la experta. “Estamos en una carrera para dominar esa tecnología”.

Y es por eso que Crawford dice que en el debate de cómo regularla y así desarrollar buenas políticas públicas, el factor geopolítico no puede quedar fuera  y es fundamental que las regiones trabajen de manera conjunta.

Actualmente hay una enorme brecha entre los que están haciendo los Estados Unidos y China, por un lado, y el resto del mundo. El temor de muchos expertos, incluyendo la investigadora de Microsoft,  es que los demás están quedando tan retrasados, que los países se convertirán en “clientes de los Estados Unidos y China”.

“A la hora de analizar estas tecnologías hay que preguntarse quién recibirá los mayores beneficios y quiénes correrán los mayores riesgos”, dice Crawford. Y es por eso que es imperativo “que se estudien las implicancias sociales y políticas de los algoritmos que se utilizan en el desarrollo de los sistemas de datos y machine learning”.

Dice que el mundo digital está reproduciendo las desigualdades del mundo real y es por eso que los políticos tienen que entender cómo funcionan los sistemas de inteligencia artificial.

“A los algoritmos se les enseña a identificar y retroalimentarse con la información. El problema es que esos mismos sistemas los está usando la policía en los Estados Unidos para predecir crímenes”. Explica que se alimenta al algoritmo de una forma que refleja patrones de barrios de alta criminalidad y con los prejucios de los propios programadores. Pero esos sesgos reproducen estereotipos y el sistema de inteligencia artificial lo toma como única verdad. “Les estamos inyectando nuestras limitaciones y nuestra forma de marginar”, dice Crawford.

Crawford dio como ejemplo el caso del sistema de reconocimiento de imágenes de Google que confundía fotos de gorilas con personas de tez negra y el sistema de análisis de CV que usaba Amazon y que automáticamente discriminaba a las mujeres a la hora de ofrecer recomendaciones de a quién contratar. El gigante del comercio online tuvo que desecharlo a las pocas semanas.

Las fallas fueron identificadas y los errores corregidos, pero estos casos, como también otros, dejaron en claro que los datos con los que se nutren los algoritmos son cruciales para evitar que haya discriminación. “Es muy difícil lidiar con los sesgos”, advirtió la especialista. Y es por eso que ella insiste en que es fundamental trabajar con equipos multidisciplinarios, que incluyan filósofos y sociólogos, a la hora de desarrollar esta tecnología.

El año del ajuste de cuentas

Esos dos ejemplos y el escándalo de Cambridge Analytics y Facebook han sido un balde de agua fría que ha despertado la conciencia acerca la necesidad de diseñar políticas públicas para asegurarse de que los algoritmos no pasen a controlarnos.

Y eso se ve en las recientes presiones de empleados en Google, Amazon y Facebook exigiendo tener un rol sobre el impacto social de la tecnología que construyen. Y en las protestas para que las empresas no trabajen con el Pentágono o la policía.

Crawford dice que ahora es absolutamente común usar la inteligencia artificial para analizar la situación crediticia, legal y laboral de los ciudadanos. Y es por eso que es tan importante entender la dimensión social y ética. Sino, se corre el riesgo de quitar libertades y de afectar la democracia. “Hay que crear sistemas de inteligencia artificial que tengan en cuenta el contexto social y cultural". Y agrega que si la mayoría de la inteligencia artificial se desarrolla en China y los Estados Unidos, por definición tendrá sesgos y prejuicios que reflejan esas culturas.

En China, gracias a la inteligencia artificial, el Gobierno está construyendo un “sistema de crédito social" a través del cual el comportamiento de cada uno de sus 1.300 millones de ciudadanos es puntuado en una especie de ránking de confianza. El sistema otorga puntaje y monitorea el comportamiento de sus ciudadanos, desde la información fiscal, hasta el tiempo que pasan jugando a videojuegos. Para 2020, todos estarán obligatoriamente incluidos en una enorme base de datos nacional en la que cada uno recibirá un puntaje en función de sus conductas.

La necesidad de desarrollar pensamiento crítico

La investigadora dice que en Silicon Valley tienen claro estos problemas, pero encontrar una solución no es fácil. Y da como ejemplo el reciente pedido de Apple y Amazon para una mayor regulación de ciertos sectores de la industria, en particular los que se basan en datos personales.

“Se va a necesitar mucho pensamiento crítico y ésta es una de las cosas que tenemos que tener en cuenta como prioridad educativa. En los últimos diez años se ha dicho: 'enseñen a los chicos a programar, a codificar, todos deben codificar'. Y eso no resolverá estos problemas. Además, la programación y la escritura de código se puede automatizar fácilmente", explicó.

“Creo que más que aprender a programar hay que aprender a pensar de manera crítica. Y eso es algo que se debe aprender desde la primera infancia. Creo que a los 5 o 6 años, los niños ya deberían saber que estos sistemas no necesariamente les muestran el mundo tal como es, sino que les muestran un mundo muy específico, personalizado, manipulado", concluyó.

Al respecto, Crawford tiene algunas sugerencias:

  • Expandir la investigación sobre las implicancias políticas y sociales de la inteligencia artificial.
  • Asegurarse de que investigación es interdisciplinaria y no dominada por ingenieros y científicos.
  • Desarrollar políticas públicas específicas para la industria de la inteligencia artificial y con ellas, un nuevo marco normativo.

“Es imperativo poner reglas para asegurarse que los que están más expuestos no sufran y para identificar quienes son los que más se verán beneficiados. Es un desafío enorme, pero necesario”, dice Crawford . “Se pueden hacer reglas y leyes para decidir de qué clase de mundo quieres ser parte y qué tipo sociedad pretendes”. Agrega que tenemos una pequeña ventana de oportunidad para hacer lo correcto y decidir el tipo de vida que queremos proteger. “Es una conversación que tenemos que tener como sociedad”.

Además de su trabajo como investigadora en Microsoft, en 2017 Crawford fundó con otros colegas de la Universidad de Nueva York el AI Now Research Institute, un instituto independiente que pretende ayudar a los gobiernos a corregir los sesgos de desigualdad de sus algoritmos.