Esta entrevista estuvo a punto de no producirse. En primer lugar, por un problema físico. María Ressa (Filipinas, 1963), periodista, premio Nobel de la Paz y autora del libro Cómo luchar contra un dictador (Península), en el que relata cómo las redes sociales y las empresas tecnológicas con sus algoritmos indescifrables han aupado a la extrema derecha y populismos al poder, había llegado a Madrid enferma. Repuesta, la conversación tuvo que hacerse por Zoom. La tecnología, entonces, se cayó varias veces. Hubo varios problemas con la traducción simultánea. Finalmente, salió adelante con la mejor predisposición por parte de Ressa que, fundadora del medio digital Rappler, que ha conseguido ser uno de los más influyentes en su país, plantándole cara al expresidente Rodrigo Duterte, algo sabe de cómo funcionan todas estas cosas tecnológicas.
PREGUNTA. A comienzos de la pasada década, usted abrazó con fuerza las tecnologías y las redes sociales como forma de expandir la democracia, sin embargo, en 2016 se cayó del caballo. ¿No lo vio venir?
RESPUESTA. En 2016, durante la campaña de Duterte, una de mis analistas favoritas me preguntó: "¿Tú crees que va a volver a haber un dictador en el poder?". Y dije: "No, es imposible. Tenemos ya las redes sociales". Hasta entonces, yo no entendía la manguera de mentiras, no entendía cómo funcionan las operaciones de desinformación y las guerras informativas. No podía pensar en las redes sociales así, con lo que tuve que aprender.
P. ¿Hubo algún detonante que le hiciera ver que las redes sociales no eran tan positivas como usted pensaba?
R. El detonante fue la experiencia vivida, que fue horrible. En julio de 2016, sufrimos todos esos ataques. Cualquiera que cuestionara toda la guerra contras las drogas [del expresidente Duterte] era machacado. Y luego estaba lo contrario: a las personas que ensalzaban esa guerra se les daba más voz. Cuando hicimos una serie en Rappler sobre cómo internet se estaba convirtiendo en un arma de desinformación, los ataques fueron empeorando. Me di cuenta de cómo me estaban machacando hasta el silencio. Hay un estudio que muestra que el 60% de los ataques contra mí tenía que ver con quitarme la credibilidad. Así que fue una cuestión de experiencia de una situación que tenía que ver con la política, el poder y el dinero. Y las redes sociales están diseñadas para que sigamos siendo adictos y hagamos scroll constantemente. Y están siendo explotadas por el poder político, primordialmente en Rusia, que se ha convertido en el guion de los dictadores.
P. Aquellos años, ustedes crearon en Rappler unas métricas sobre cómo afectaban las noticias emocionalmente. En el fondo, es lo que ya hacían las redes sociales.
R. En Rappler, metimos unas métricas que siguen y se pueden consultar. Había estudios que decían que el 85-90% de los seres humanos toman decisiones no basadas en lo que pensamos sino en lo que sentimos. Los emojis y los likes llegaron cuatro años después de que nosotros hiciéramos estas encuestas de estados de ánimo. Yo quería rastrear el impacto de una noticia en la sociedad.
A continuación, Ressa cuenta cómo funcionan las redes sociales. Cómo están diseñadas para que su contenido genere un determinado impacto. Y hace referencia al libro de Shoshana Zuboff, La era del capitalismo de la vigilancia, en el que se describe cómo las tecnologías están haciendo dinero con todos nosotros modificando la mente humana y el comportamiento humano.
"Imagínate que tienes 1.000 posts en Facebook, pues con eso las analíticas predictivas crean un modelo de ti que te conoce mejor que tú a ti misma. Reemplacemos la palabra modelo por clon. Este aprendizaje de las máquinas clona a todos los usuarios en Facebook y luego la inteligencia artificial entra y coge toda esa información, la mete en una base de datos madre con tu clon y eso es lo que permite a esas empresas convertirte en un microobjetivo publicitario. Por eso la publicidad en las redes sociales es muchísimo mejor que en los medios tradicionales porque tienen tu clon. ¿Deberían tenerlo? No, deberían pedir permiso. Y debería haber leyes que se fijen en esto".
P. Y esto, ya se ha comprobado, trae consecuencias como que la extrema derecha suba al poder.
R. Hay otra cosa que no está en el libro, pero que me parece fascinante y que tiene que ver con lo que pasó en Brasil el 8 de enero. Hay muchos algoritmos diferentes. Están los de distribución, pero también los de agrupamiento [clústeres]. Estos hacen grupos de posts que quizá nunca se han unido en el pasado. Todo esto se llama network clustering. Bien, pues lo que ocurrió en Brasil es que las teorías de la conspiración se unieron en las recomendaciones algorítmicas que aparecían en YouTube. Y cuando sucedió eso, el algoritmo cogió una figura de extrema derecha, como Bolsonaro, y eso, junto a los conspiradores, le llevó a la presidencia. Fue exactamente lo mismo que empujó a la violencia del 8 de enero. Lo terrible es que esto lo puedes replicar en cualquier país del mundo donde ha habido un auge de la extrema derecha. Verás cómo siempre hay un clustering de redes que contribuye a ese devenir.
El impacto que esto produce tiene consecuencias a tres niveles: uno de ellos es el personal. Hay una doctora que escribió un libro, Dopamine Nation, que habla del aumento en los suicidios y la depresión, de trastornos alimentarios y problemas de salud mental de chicas jóvenes que están en redes sociales. Tenemos un montón de documentos que hablan de esto. El fango tóxico de las redes anima a que lo peor de la humanidad salga a flote porque se nutre del miedo, del odio y de la ira.
La otra capa es la sociológica. Hay estudios que demuestran que cuando estás en un grupo harías cosas que no harías si estás sola, como por ejemplo la violencia en masa. Así que multiplica eso y pásalo al mundo online.
P. ¿Y todo esto no está contaminando al periodismo? Ahí está todo lo viral...
R. Sí, esto es algo que sabemos desde hace tiempo. Yo vengo de la televisión y tenemos muchos estudios sobre el impacto de estas noticias en la televisión. Ahora está funcionando a otra escala. Lo que en televisión se llamaba sensacionalismo ha cambiado al clickbait, y que son todas esas noticias rápidas que se consumen y que ya estaban ahí desde 2012, 2014. Lo que ha pasado es lo siguiente. Por un lado están los que hacen de la viralidad su objetivo y hubo un auge de los que se aprovecharon de la viralidad que proporcionaban las redes sociales. Entonces no nos dimos cuenta de hasta qué punto era mala esa viralidad. Todo eso no salió a la luz hasta 2018. La segunda cuestión es la estructura de los incentivos para las organizaciones de noticias. Si se está priorizando la expansión de mentiras sobre los hechos, y de hecho tienen hasta seis veces más velocidad en su propagación, ¿cómo puede competir el periodismo con esto? ¡Es por eso por lo que el mundo está patas arriba! Porque es como si tuvieras un hijo y le dijeras: miente y te recompensaré. Y si lo haces sin parar te recompensaré sin parar. Si la función principal es la mentira y esta se extiende seis veces más rápido que la verdad entonces los periódicos no van a poder conseguir vender (ni que se lea) su pieza de investigación. Por eso la estructura va contra nosotros. Esto es lo que ha puesto el mundo patas arriba. ¿Conoces la serie de Netflix Stranger Things? Pues estamos en el mundo boca abajo y todo es engañosamente familiar, fangoso y pegajoso.
María Ressa: "Se está priorizando la expansión de mentiras sobre los hechos, y eso es lo que ha puesto el mundo patas arriba"
R. Necesitamos que las leyes le den la vuelta y lo ponga todo boca arriba. Por este tema estamos viendo estas pequeñas muertes de la democracia. En 2019, mostramos la evolución de las redes de desinformación de [Ferdinand] Marcos y Duterte y cómo iba cambiando la historia de Marcos delante de nuestros ojos. Todo esto no recibe tanto tráfico como el ultimo cotilleo o la mentira propagada por un movimiento de extrema derecha o la mentira que nos ataca a nosotros, a Rappler, directamente. Esto es una corrupción en nuestro sistema informativo y por eso creo que el periodismo está bajo ataque.
P. En las últimas semanas ha hecho su aparición la inteligencia artificial con bots como ChatGPT. Usted que abrazó las redes sociales en su día, ¿cree ahora que ChatGPT es peligroso para nuestra sociedad?
R. Absolutamente. Hay un motivo por el cual meta o Facebook o Google no publican su inteligencia artificial completamente porque estas empresas saben los daños que provoca y sabe que van tener que hacerse responsables. La realidad es que no lo han testado todavía y están experimentando con personas de verdad. Los seres humanos, en los momentos de soledad o vulnerabilidad extrema, si hablan con una IA puede ser muy peligroso para ellos. Lo que yo pienso es que si hay una legislación para la manipulación genética, ¿por qué no la hay para la tecnología que puede cambiar nuestras mentes y nuestras emociones que pueden llegar a cambiar nuestras acciones en el mundo real? Yo he probado este bot y ¿me divertí? Pues sí, pero también veo que es un peligro. Por otro lado, también depende los datos con los cuales se alimenta a la IA, que incluye los datos de las redes sociales donde hay tantísimo fraude. Además, ninguno de esos datos distingue los hechos de la ficción, por lo que hay un input que está sesgado. ¿Y esto en el mundo del periodismo qué significa? Cuando salga el chatbot no va a haber links hacia las referencias de dónde sacaron la información, por lo que la desinformación va a ser más fácil. Y lo último que tengo que añadir de estos chatbots es que alucinan, literalmente. Puede que tengan una alucinación en medio de toda esa información que están dando y no sepamos distinguir cuándo están alucinando y cuándo no.
P. Con estos mimbres, ¿cómo ve el futuro?
R. Creo que podemos ir en dos direcciones. Por un lado, la tecnología puede llegar a ser una fuerza para el bien. Ya no podemos meter el genio en la botella y nuestra capacidad de hacer algo bueno con ello también está ahí, pero también requiere sabiduría y un respeto al ecosistema de la información. Por otro lado, como la tecnología puede traer un futuro distópico si los chatbots [ChatGTP] funcionan sin ningún tipo de restricción legislativa porque la desinformación puede llegar a ser muy real. Y no solo en el chatbot, sino con las fotos, en el arte… Las personas están siendo reemplazadas por máquinas. Por eso, como sociedad, necesitamos más transparencia y necesitamos aprender a mirar a los algoritmos con ojos críticos.
P. Me parece que ser periodista tiene poco que ver hoy con los noventa o antes.
R. Totalmente, la ética del periodismo es la misma, pero la forma ha cambiado tanto… Cuando aprendí periodismo en la tele me decían que en 10 segundos hay que acaparar la atención. Hoy en día con las tecnologías, la atención ha bajado a tres segundos. Es la atención de un pececito, y eso demuestra cómo nuestros cerebros están cambiando. Lo segundo es como las mujeres periodistas y políticas tienen que lidiar con muchos más ataques personales, y eso está obligando a muchas mujeres a salirse del periodismo y la política. Esos ataques nos han hecho perder mucha fuerza en la última década. Y la tercera es que necesitamos encontrar un sistema de soluciones, abrazar la tecnología. Nos está matando, pero hay que abrazarla. Y creo que las plataformas tecnológicas necesitan que sean responsables. Ese es mi sueño.
Esta entrevista estuvo a punto de no producirse. En primer lugar, por un problema físico. María Ressa (Filipinas, 1963), periodista, premio Nobel de la Paz y autora del libro Cómo luchar contra un dictador (Península), en el que relata cómo las redes sociales y las empresas tecnológicas con sus algoritmos indescifrables han aupado a la extrema derecha y populismos al poder, había llegado a Madrid enferma. Repuesta, la conversación tuvo que hacerse por Zoom. La tecnología, entonces, se cayó varias veces. Hubo varios problemas con la traducción simultánea. Finalmente, salió adelante con la mejor predisposición por parte de Ressa que, fundadora del medio digital Rappler, que ha conseguido ser uno de los más influyentes en su país, plantándole cara al expresidente Rodrigo Duterte, algo sabe de cómo funcionan todas estas cosas tecnológicas.