Instagram quiere eliminar los likes para volverse más empática- RED/ACCIÓN

Instagram quiere eliminar los likes para volverse más empática

 Una iniciativa de Dircoms + RED/ACCION

La red social de fotos de Facebook está trabajando hace tiempo en lograr volverse un lugar más habitable. Esta vez está testeando esconder la posibilidad de ver cuántos “me gusta” tuvieron las publicaciones.

Instagram quiere eliminar los likes para volverse más empática

¡Buen viernes! Espero que hayas tenido una semana genial. Yo abro esta edición de FUTURO con una noticia que me puso muy contento: Instagram quiere eliminar los likes para que sus usuarios se sientan mejor. Además, Twitter también va por el buen camino con una prueba que llevará adelante las próximas semanas. Finalmente, te recomiendo una app increíble para ayudar con tu celular a científicos que investigan el cáncer.

Compartí esta newsletter o suscribite

1

Cómo Instagram quiere convertirse en la red social más empática de internet. Si nos pusiéramos a listar la cantidad de estudios con evidencia científica que revelan cómo las redes sociales nos hacen mal, el resultado sería tristísimo y contundente. Por suerte, poco a poco, hay algunas plataformas que se están convirtiendo en lugares más seguros y empáticos. Y muchas otras que planean hacerlo. De hecho, en FUTURO ya comenté cómo Pinterest está liderando el camino y ahora Instagram no se quiere quedar atrás.

  • Esconder los likes. Después de haber hecho un test en varios países en los que se escondieron los likes de las fotos publicadas en Instagram de manera pública, esta prueba llega a todo el mundo. Cuando digo “de manera pública” me refiero a que nosotros, quienes subimos la imagen, podremos ver cuántos “me gusta” tiene, pero no podrán hacerlo terceros.
  • No es la primera movida que llevan adelante para convertirse en un lugar más empático. En los últimos meses vimos cómo modificaron sus algoritmos para bloquear contenidos ofensivos e inlcuso bloquearon filtros relacionados a cirugías estéticas para que los usuarios más jóvenes no tengan una visión utópica de belleza.
  • Ya se hizo un estudio donde la compañía HypeAuditor estudió si esconder los likes genera más “me gusta” en las imágenes de los influencers o no. El resultado fue –casi– siempre el mismo. En todos los países los “me gusta” cayeron con una sola excepción: Japón. En el país asiático aumentaron.
  • ¿Es la solución? Está claro que todavía falta para determinar si eliminar las métricas de las redes sociales puede hacer bien a la salud mental de sus usuarios y mejorar el discurso en la red. Como sea, este tipo de pruebas son necesarias. Evidentemente el funcionamiento actual de las plataformas no es el indicado y en los últimos tiempos nos dimos cuenta de cómo el odio, la idealización de la belleza, las fake news y la desinformación tomaron el control. Ésta quizás sea una de las medidas que haya que tomar para poder hacer de internet un lugar mejor.

2

Twitter también intenta mejorar la plataforma. Hace algunas semanas nos enteramos cómo Twitter prohibió en todo el mundo los anuncios políticos con la intención de mejorar la plataforma e intentar reducir la desinformación. Ahora, durante las próximas semanas, llevará a cabo un test para mejorar todavía más la red social.

  • La prueba. En el test se incluirá la posibilidad de agregar un emoji a un retweet. De esta forma se nos permitirá demostrar qué sentimos en relación a un mensaje sin la necesidad de tener que redactar sobre el mismo. Si ponemos una cara enojada a un mensaje de Donald Trump entenderemos que estamos en contra de lo que dice y si agregamos un corazón a uno de Alexandria Ocasio-Cortez, se entenderá que estamos a favor. Lo interesante es que cuando tengamos la intención de elegir un emoji negativo, Twitter nos preguntará: “¿Por qué no estás de acuerdo?”, con la intención de provocar una respuesta más reflexiva.
  • ¿Qué se busca? La intención de la red social es ver si esta característica permite que los usuarios expresemos nuestras opiniones de una manera más matizada y sin tanto odio y fanatismo. Si bien este tipo de experimentos tienen gusto a poco, podrían realmente cambiar la manera en la que nos comunicamos a través de una red social que hace años fue invadida por la toxicidad y el odio.

3

La Apple Card discrimina mujeres. La tarjeta de crédito de Apple que empezó a funcionar este año en Estados Unidos está en el centro de la polémica porque aparecieron casos donde usuarios aseguran que discriminan a mujeres dándole menor crédito que a hombres.

  • El tuit que reveló el problema. David Heinemeier Hansson, un famoso desarrollador creador del software Ruby on Rails y autor de varios libros, publicó un tuit que se viralizó donde contó el problema. “La @AppleCard es un jodido programa sexista. Mi esposa y yo presentamos declaraciones de impuestos conjuntas, tenemos nuestra propiedad a ambos nombres y llevamos mucho tiempo casados. Sin embargo, el algoritmo de Apple considera que yo merezco 20 veces el límite de crédito que ella”, escribió Heinemeier Hansson en el mensaje que suma miles de retuits y decenas de miles de favs.
  • No fue el único. Después de que el tuit se viralizó, se sumaron más usuarios quienes aseguraron que les pasó lo mismo. Uno de ellos fue nada menos que el cofundador de Apple, Steve Wozniak: “Soy un empleado actual de Apple y fundador de la compañía y me pasó lo mismo”, dijo.
  • Todo indica que el problema no nació desde Apple sino del algoritmo de asignación crediticia del Goldman Sachs, banco con el que se alió la empresa de la manzanita para lanzar la tarjeta. Desde la entidad financiera salieron a aclarar un poco los tantos: "Al igual que con cualquier otra tarjeta de crédito individual, su solicitud se evalúa de forma independiente. Analizamos los ingresos y la solvencia de un individuo, que incluye factores como los puntajes de crédito personales, la cantidad de deuda que tiene y cómo se ha administrado esa deuda. En base a estos factores, es posible que dos miembros de la familia reciban decisiones crediticias significativamente diferentes".
  • Lo resolvieron. Después que se viralizó el tuit de Heinemeier Hansson los empleados de atención al cliente de Apple se comunicaron con él y solucionaron el problema. Es un tema que toqué en muchas oportunidades en FUTURO: la discriminación a través de algoritmos. Este se trata solo de un ejemplo más que demuestra que los equipos que desarrollan sistemas de inteligencia artificial necesitan diversidad.

4

La desesperación de que tu casa se inunde. En Argentina hay 4.416 barrios populares donde viven más de 4 millones de personas. El 62% de esos barrios se inunda cada vez que llueve. En una producción especial de RED/ACCIÓN, tu celular se convertirá en el de Fer, una vecina del conurbano bonaerense que, a través de fotos, videos, audios y conversaciones de WhatsApp, mostrará cómo es vivir la desesperación de ver cómo tu hogar se inunda. Un informe tan interesante como devastador.

5

App recomendada: DreamLab, para ayudar en la lucha contra el cáncer mientras dormis. Nuestros celulares tienen una capacidad de cómputo inmensa. De hecho, los de gama alta en muchas situaciones superan en capacidad a muchas de las computadoras que se venden en el mercado. DreamLab es una app que utiliza esa capacidad para ayudar a luchar contra el cáncer. La aplicación lo que hace es utilizar los procesadores de nuestros teléfonos mientras están siendo cargados por la noche para resolver cálculos que ayudan a los proyectos de investigación que pelean contra la enfermedad. Cuando desconectamos el celular y volvemos a usarlo para nuestras actividades cotidianas DreamLab envía los resultados para que los expertos puedan analizarlos.

6

Un vehículo autónomo de Uber que mató a una mujer no estaba programado para evitar peatones imprudentes. En marzo de 2018 un vehículo de Uber atropelló y mató a Elaine Herzberg, una mujer de 49 años. Después de largas investigaciones, las autoridades federales de Estados Unidos revelaron lo que pasó: el algoritmo del vehículo no estaba programado para reconocer y responder a la presencia de transeúntes que estuvieran cruzando la calle por el lugar que no era el indicado. Lo que sucedió fue exactamente eso: Herzberg no cruzó por la senda peatonal, el vehículo la “reconoció” pero no actuó en consecuencia.

  • El informe. La Junta Nacional de Seguridad en el Transporte de Estados Unidos reveló, a través de una investigación de 400 páginas, que el “diseño del sistema autónomo de Uber no incluía una consideración para peatones imprudentes”.
  • Se vienen las multas. El 19 de este mes se espera que desde la Junta se reúnan para determinar cuáles serán las sanciones para la compañía. Desde la empresa una portavoz, Sarah Abboud, aseguró que adoptaron en los últimos tiempos “mejoras críticas” para “priorizar todavía más” la seguridad.

Llegamos al final de FUTURO. Espero que te haya gustado esta edición y ya sabés, si querés ayudar a una buena causa, lo único que tenés que hacer es descargar DreamLab. Como siempre, solo tenés que contestar este correo si me querés decir algo. Te mando un abrazo y te deseo un muy buen fin de semana.

Axel

Recibí FUTURO

La tecnología que viene hoy. Todos los viernes, por Axel Marazzi.

Ver todas las newsletters

Con el apoyo de