Nos debemos un debate sobre el uso de datos digitales de nuestra conducta | RED/ACCIÓN

Nos debemos un debate sobre el uso de datos digitales de nuestra conducta

Las tecnologías digitales, los datos del comportamiento humano y la toma de decisiones algorítmicas desempeñarán un papel cada vez más crucial para abordar las crisis futuras. A medida que confiamos cada vez más en los grandes datos para resolver problemas importantes, la pregunta más importante que enfrentamos no es qué podemos hacer con ellos, sino qué estamos dispuestos a hacer.

Pocas semanas después de la aparición de los primeros casos de COVID‑19 fuera de China, Corea del Sur lanzó un sistema que publicaba los perfiles y movimientos exactos de personas que habían dado positivo para la enfermedad. Otros países asiáticos y europeos no tardaron en desarrollar sistemas propios de «seguimiento y rastreo», con diversos grados de éxito y de preocupación por las cuestiones éticas involucradas.

El fuerte impulso a tomar estas medidas fue comprensible: si sistemas que ya están en funcionamiento pueden salvar miles de vidas ¿por qué no usarlos? Pero en la urgencia por combatir la pandemia, las sociedades prestaron poca atención a dos cuestiones: ¿cómo fue posible introducir esos sistemas en tan poco tiempo y qué viene a continuación?

Es verdad que el régimen de seguimiento y rastreo de Corea del Sur ya generó bastante debate. Al principio la discusión se centró en los límites éticos cruzados por el sistema al enviar por mensaje de texto a otros residentes locales los movimientos exactos de personas con diagnóstico de COVID‑19, lo cual implicaba revelar, por ejemplo, su asistencia a bares de karaoke, alojamientos temporarios o clubes gay.

Pero otro aspecto destacado del sistema surcoreano es que vincula la ubicación de los teléfonos móviles con historiales de viaje, datos sanitarios, grabaciones de cámaras de circuito cerrado operadas por la policía y datos de tarjetas de crédito. Luego esta información se analiza en un centro de datos creado en el contexto de las «ciudades inteligentes» surcoreanas. Se dice que este sistema, al eliminar procedimientos de autorización burocráticos, ha reducido de un día a sólo diez minutos los tiempos requeridos para el rastreo de contactos.

Los defensores de la privacidad y seguridad digital llevan años alertando acerca de la interconexión de fuentes separadas de datos en poder de entidades públicas y privadas. Pero la pandemia demostró por primera vez la facilidad con que esos flujos de datos se pueden centralizar y vincular al instante, no sólo en Corea del Sur, sino en todo el mundo.

La verdad incómoda es que llevamos bastante tiempo creando una infraestructura que permite la recolección mundial de datos conductuales íntimos. Shoshana Zuboff señala que este «capitalismo de vigilancia» nació con la ampliación de las competencias estatales en materia de seguridad después de los ataques terroristas del 11 de septiembre de 2001 en Estados Unidos.

Modelos de negocios basados en datos impulsaron el desarrollo de los elementos clave de esta infraestructura: teléfonos inteligentes, sensores, cámaras, dinero digital, biométricas y aprendizaje automático. Por su conveniencia y eficiencia (la promesa de poder hacer más con menos), las tecnologías digitales conquistaron un sinnúmero de usuarios, tanto individuales como empresariales. Pero la rapidez y el entusiasmo con que las adoptamos nos dejaron poco tiempo y escasas razones para pensar en lo que sucedería al unir todos los puntos.

Aunque los medios suelen calificar las herramientas tecnológicas aplicadas a la pandemia como «de avanzada», lo cierto es que no tienen casi nada de nuevo, salvo quizá el hecho de haberse vuelto más visibles. Muchas empresas establecidas dependen del rastreo (individual y mundial) de movimientos de las personas. Cabe mencionar los informes de movilidad que publica Google en relación con la COVID‑19, con una variedad impresionante de datos, en los niveles individual, municipal y nacional, que muestran quién se queda en casa, quién va a trabajar y cómo han cambiado estas pautas de conducta con las medidas de confinamiento.

Lo mismo puede decirse de los datos referidos a lo que compramos y a nuestras acciones individuales y grupales. El rastreo masivo de pautas de conducta individuales es tan esencial para la automatización que las medidas de confinamiento por la pandemia (que alcanzan a más de cuatro mil millones de personas), al confundir a los modelos de IA y aprendizaje automático, han alterado el funcionamiento de los algoritmos de detección de fraudes y de los sistemas de gestión de cadenas de suministro.

Esta repentina visibilidad pública de los datos conductuales podía ser ocasión para una toma de conciencia; así como las revelaciones de Edward Snowden expusieron la vigilancia de llamadas por Skype y correos electrónicos en nombre del antiterrorismo; y como el escándalo de Cambridge Analytica en el Reino Unido puso de manifiesto la venta y el uso de datos personales con fines de publicidad política ultraselectiva.

En particular, la crisis de la COVID‑19 podía revelar la capacidad de los datos conductuales para contar historias respecto de lo que hacemos cada minuto del día, y la importancia que esto tiene. Pero en vez de eso, hemos aceptado estas tecnologías, porque las vemos (al menos, mientras dura esta crisis) como orientadas al mayor bien común (pasando por alto al hacerlo la cuestión de si son eficaces).

Pero cuando los límites entre la salud privada y la salud pública se vuelvan cada vez más borrosos, es posible que no pensemos lo mismo en relación con las concesiones que se nos está pidiendo hacer. Tal vez no seamos tan tolerantes del seguimiento de datos conductuales si implica la vigilancia constante de elecciones de estilo de vida personales en aras del bien colectivo.

Algunas tecnologías posibles para el futuro pospandemia, como las herramientas de vigilancia en el lugar de trabajo o los pasaportes sanitarios digitales permanentes, pueden suponer una dura prueba para nuestros sistemas de valores y provocar intensos desacuerdos culturales y políticos en relación con qué tecnologías deben o no deben usarse.

Aunque sería fácil presentar todo el debate en términos de vigilancia y privacidad, no son las únicas cuestiones importantes en juego. La recolección masiva de datos de conducta íntimos, además de su utilidad para las grandes empresas, también puede servir para la modelización predictiva, la emisión de alertas tempranas y la creación de sistemas de fiscalización y control en los niveles nacional y mundial. Además, es probable que el futuro traiga nuevas crisis, por ejemplo desastres naturales, hambrunas y pandemias, cuya predicción, mitigación y manejo dependerá cada vez más de las tecnologías digitales, de los datos sobre la conducta de las personas y de la toma de decisiones algorítmica.

De modo que las sociedades tendrán que confrontar preguntas difíciles en relación con el manejo de desafíos que exceden las libertades civiles y con los sesgos nocivos, la discriminación y las desigualdades que las tecnologías de recolección de datos dejan al descubierto.

Tendremos que decidir a quién pertenecerá el conocimiento basado en datos de conducta y de qué manera se usará al servicio del interés público. Y habrá que ser conscientes de que la identidad de quienes tomen decisiones sobre la base de esos datos, y las ideas políticas que los motiven, suponen la creación de nuevas formas de poder con amplios efectos sobre nuestras vidas.

Ahora que confiamos cada vez más en el big data como herramienta para la solución de grandes problemas, la pregunta más importante no es qué se puede hacer con estas tecnologías, sino más bien qué usos consideramos admisibles. Y si no nos hacemos esa pregunta, otros la responderán en nuestro lugar.

Stephanie Hankey es la directora ejecutiva de la ONG internacional Tactical Tech.

© Project Syndicate 1995–2019.

Sumate para construir juntos un periodismo que no solo sirva para contar el mundo, sino también para cambiarlo ✊🏼

¡QUIERO SER CO-RESPONSABLE!