BUSCAR EN EVERGOL

"El crecimiento de la digitalización siempre fue exponencial, pero la pandemia lo aceleró con esteroides", asegura Martin Hilbert, investigador alemán de la Universidad de California-Davis y autor del primer estudio que calculó cuánta información hay en el mundo.

Reconocido por haber alertado sobre la intervención de Cambridge Analytica en la campaña de Donald Trump un año antes de que estallara el escándalo, Hilbert ha seguido de cerca los efectos digitales del coronavirus y sus conclusiones son poco optimistas: las personas no saben cómo lidiar con el poder de los algoritmos, los gobiernos no saben cómo usarlos en favor de la población y las empresas se resisten a adoptar pautas éticas efectivas.

Esto debiera preocupar especialmente a América Latina, "porque son líderes mundiales en el uso de redes sociales", advierte Hilbert, que vivió una década en Chile como funcionario de la ONU y hoy vive a 40 minutos de Silicon Valley.

En conversación con BBC Mundo compartió su opinión de que las nuevas tecnologías plantean desafíos de alcances tales que podrían exigir una evolución de la conciencia humana.

 

 

 

¿Por qué crees que ocurre eso?

Hay que entender cómo funciona esta economía digital, donde el recurso escaso a explotar es la atención humana.

El negocio de los gigantes tecnológicos −Google, Apple, Facebook, Amazon− no es ofrecerte avisos comerciales: es modificar tus comportamientos para optimizar el rendimiento de esos avisos.

Y pueden hacerlo porque los algoritmos, al procesar millones de datos sobre tu comportamiento, aprenden a predecirlo, mucho mejor que tú mismo.

Pero para conocerte e influir sobre ti necesitan mantenerte conectado. Por lo tanto, las llamadas tecnologías persuasivas cumplen su misión cuando eres adicto y no puedes desviar tu atención de ellas.

Por lo que muestra el documental El dilema de las redes sociales, muchos en Silicon Valley se arrepienten de haber creado esas tecnologías.

Aquí en Silicon Valley el término de moda es human downgrading [degradación humana], que resume la siguiente idea: de tanto discutir cuándo la tecnología iba a sobrepasar nuestras capacidades, perdimos de vista que las máquinas se estaban enfocando en conocer nuestras debilidades.

Ganarle una partida al campeón de ajedrez era lo de menos. Su verdadera fuente de poder ha sido llevarnos a nuestro narcisismo, a nuestro enojo, ansiedad, envidia, credulidad y, por cierto, a nuestra lujuria.

Es decir, las tecnologías persuasivas apelan a mantenerte en la versión más débil de ti mismo para que gastes tu tiempo en las redes.

 

Algunos críticos han dicho que el documental es alarmista, o que carece de perspectiva histórica para entender que estos fenómenos no son tan nuevos.

Como todo documental, deja sin cubrir aspectos importantes, como el cruce entre la tecnología y las desigualdades. Pero no percibo un alarmismo exagerado.

Quienes critican estos discursos tienen una frase típica: "Estas cosas siempre existieron". Y es verdad. De hecho, Facebook hizo un estudio para mostrar que la red social influye menos en la polarización política que nuestro apego innato a los amigos de ideas afines.

Pero el mismo estudio mostró que los algoritmos de recomendación de Facebook duplican ese efecto, y ahí está el problema. Los huevos y la carne siempre subieron el colesterol, pero en las últimas décadas potenciamos ese efecto con una avalancha de helados y papas fritas. ¿Me explico?

Lo que pasa es que nos cuesta admitir el efecto en nosotros mismos.

Nos preocupa mucho ver a nuestros hijos pegados todo el día a un chupete digital, incapaces de concentrarse o asimilando expectativas poco realistas sobre sus cuerpos. Pero nosotros somos otra cosa, usamos las redes por divertirnos, nadie nos mete un chupete en la boca.

 

Pero es un hecho que la tecnología digital también nos presta servicios imprescindibles. La pandemia lo ha dejado bastante claro.

Sin duda, y eso no tiene vuelta atrás.

El crecimiento de la digitalización siempre fue exponencial. Hace 25 años no teníamos celulares y ya es imposible imaginarlo. Pero la pandemia lo aceleró con esteroides. Aunque también mostró sus limitaciones, ¿no?

Yo doy clases en línea hace años y conozco muy bien sus desventajas, pero ahora cada maestra de primaria descubrió que con niños de 7 años no funciona para nada.

También aceleró el debate sobre la privacidad, que antes era más teórico: ¿qué escucha Siri, qué escucha Alexa? Ya no hace falta ninguna Siri, todas las casas están conectadas y toda la familia está en la casa.

El otro día un papá inocente se puso los pantalones mientras mi hija de 6 años estaba en clases, y claro, había unas 30 familias viendo a un viejo medio desnudo atrás. O de pronto escuchas a una pareja peleándose en el otro cuarto. Aunque no quieras, ya te metes en la casa de otros todo el tiempo.

Las herramientas digitales de vigilancia han sido otro problema difícil de tratar. Solíamos resistirnos a ellas, pero este año nos interesó mucho la aplicación de rastreo de Corea del Sur, por ejemplo, que era la más invasiva de todas.

Claro, la gente está casi enojada porque las apps de rastreo todavía no funcionan. Y el problema no es tecnológico, es político. Aquí se evidencian dos problemas serios.

Primero, la gente todavía no entiende bien lo que las grandes compañías hacen con sus datos. En marzo, cuando Apple y Google anunciaron su aplicación, todos dijeron "ay, no, ahora Apple y Google nos quieren coleccionar esos datos". ¡Apple y Google coleccionan esos datos siempre!

Y segundo, los gobiernos fueron incapaces de reaccionar a un desafío tecnológico de lo más sencillo.

Los privados les dijeron "nosotros ponemos los datos, ustedes desarrollen la app". Y los gobiernos en medio año no lograron coordinarse ni empujar un diálogo político, porque no tienen el lenguaje para esto, no pueden vender un mensaje.

En Estados Unidos ni siquiera lograron ponerse de acuerdo al interior de cada estado. Y hace poco más de un mes, Apple y Google dijeron "ya, son tan incapaces los gobiernos que vamos a tomar este asunto en nuestras manos".

Como la ley les impide instalar la app sin la venia estatal, van a integrar la función en el sistema operativo del teléfono y cada usuario verá si la habilita. Esto demuestra que la ventaja del sector privado en este tema es hoy insuperable.

 

Por lo menos en Occidente.

Exacto, esto sí funcionó en países asiáticos que habían aprendido del SARS −aunque la app de Corea del Sur, como decías, publica más datos de los necesarios− y en países autoritarios donde simplemente no hay discusión.

En China revisan hasta los datos de tu tarjeta de crédito para supervisar tu cuarentena. Para el gobierno, la emergencia lo justifica y punto. Pero los gobiernos occidentales no saben qué justificar porque ni siquiera saben plantear la discusión. Es preocupante.

Para ser justos, la disputa entre la privacidad y la seguridad nunca ha sido fácil de plantear en países democráticos.

Yo crecí en una Alemania dividida donde un Estado de vigilancia controlaba medio país, así que me preocupo mucho por mi privacidad. Pero más me preocupo por mi madre de 70 años que aún vive en Alemania, ¿no?

El verdadero problema, como advirtió Yuval Harari, es evitar que las medidas de emergencia se queden cuando vuelva la normalidad.

La pandemia también nos permitió constatar que las noticias falsas se multiplican aun cuando no haya intereses políticos detrás.

Sí, aquí el problema es la economía de la atención misma.

Al algoritmo no le importa hacia qué lado te llevan las noticias falsas, simplemente le sirven para atraparte porque cuadran mejor que la verdad con nuestros sesgos cognitivos. En particular, con dos de ellos.

¿Cuáles?

Uno es el sesgo de confirmación: si una información refuerza tu opinión, se ha verificado que es un 90% menos probable que la identifiques como falsa. Y aun si te dicen que era falsa, es un 70% más probable que un tiempo después la recuerdes como verdadera.

El otro es el sesgo de novedad.

Nosotros evolucionamos para prestar una atención desproporcionada a lo novedoso. Al que no lo hizo, se lo comió el tigre. Y la verdad no suele ser novedosa, ya la has escuchado antes.

Así las noticias falsas obtienen en las redes 20 veces más retuits que las verdaderas.

Y la ventaja de los algoritmos es que estas conductas son predecibles: somos irracionales, pero predeciblemente irracionales.

Entonces, si fueras un algoritmo programado para atraer clics, ¿qué harías para sobresalir en tu trabajo durante una pandemia? Priorizar mensajes alarmantes que culpen a minorías religiosas de propagar el virus, o al ejército gringo de llevarlo a Wuhan.

Te irá muy bien en las famosas "métricas neutrales", que supuestamente privilegian "lo que nos gusta" pero en realidad maximizan las ganancias a expensas de la polarización.

 

Y de nuestro bienestar emocional, según creen muchos psicólogos.

El año pasado, un estudio experimental concluyó que desactivar Facebook por un mes aumenta tu bienestar subjetivo tanto como ganar 30 mil dólares adicionales al año.

La explosión de las redes ha coincidido con aumentos medibles de la ansiedad, de la percepción de soledad, del suicidio adolescente, sobre todo de las chicas…

Comprendamos que estos algoritmos no afectan a todos por igual: buscan a los más débiles entre nosotros y les pegan bajo el cinturón.

Si una chica de 14 años busca un video en YouTube sobre cómo comer mejor, el algoritmo pronto le recomendará un video sobre anorexia, porque la experiencia le dice que captará su atención. Y si ella es débil, tomará ese camino.

Los usuarios de YouTube, que son dos mil millones, ven en promedio 40 minutos de videos al día, de los cuales los algoritmos recomiendan el 70%. Alrededor del 5% de las recomendaciones son teorías conspirativas absurdas: que la Tierra es plana, que las vacunas son peligrosas, etc.

Haciendo números, dos de cada siete personas en el mundo ven en promedio 1,5 minutos diarios de teorías conspirativas. ¡Es casi una religión global! No creo que tantos cristianos recen a diario.

Si ves ese tipo de videos, empiezas a dudar de todo. Y si la verdad de los hechos ya no cuenta, las reglas tampoco. Por eso crear confusión les interesa tanto a los líderes populistas o autoritarios.

También circulan teorías absurdas sobre la manipulación digital, o sobre las intenciones ocultas que tendría Mark Zuckerberg.

Claro, algunos creen que Zuckerberg estudia nuestra personalidad para irse a un sótano oscuro con el Joker y Darth Vader a planear cómo dominar el mundo.

Pero no funciona así. Ni siquiera hay muchos psicólogos en Silicon Valley.

Las tecnologías persuasivas encuentran nuestras debilidades por ensayo y error, con pruebas ciegas de A/B: ponen dos versiones de un mensaje y ven cuál produce más clics.

Así descubrieron que las publicaciones que expresan indignación obtienen el doble de likes y casi el triple de shares.

© 2017 Un Equipo Adelante, San Rafael de Alajuela, Comercial Udesa Sport. Todos los derechos reservados Los derechos de propiedad intelectual del web everardoherrera.com, su código fuente, diseño, estructura de navegación, bases de datos y los distintos elementos en él contenidos son titularidad de Un Equipo Adelante a quien corresponde el ejercicio exclusivo de los derechos de explotación de los mismos en cualquier forma y, en especial, los derechos de reproducción, distribución, comunicación pública y transformación. El acceso y utilización del sitio web everardoherrera.com que Un Equipo Adelante pone gratuitamente a disposición de los usuarios implica su aceptación sin reservas.