Detectando la “mierda”
Detectando la “mierda”
Cuando Carl Bergstrom trabajó en planes para preparar a Estados Unidos para una hipotética pandemia, a principios de la década de 2000, él y sus colegas estaban preocupados de que las vacunas no llegaran a quienes más las necesitaban. «Pensamos que el problema sería evitar que la gente levantara barricadas y detuviera el camión y se quitara todas las vacunas, dándoselas entre sí», recuerda.
Cuando llegó el COVID-19, las cosas se desarrollaron de manera muy diferente. Una cuarta parte de los adultos estadounidenses permanecen sin vacunar contra un virus que ha matado a más de 1 millón de estadounidenses. «Nuestra capacidad para convencer a la gente de que esta era una vacuna que iba a salvar muchas vidas y que todos necesitaban tomar era mucho, mucho peor de lo que la mayoría de nosotros imaginábamos», dice Bergstrom. Está convencido de que este fracaso catastrófico se puede rastrear a las redes sociales y su poder para difundir información falsa, en este caso sobre vacunas, de manera lejana y rápida. «Mierda» es el término general de Bergstrom para las falsedades que se propagan en línea, tanto la desinformación, que se propaga inadvertidamente, como la desinformación, diseñada para difundir falsedades deliberadamente.
Biólogo evolutivo de la Universidad de Washington (UW), Seattle, Bergstrom ha estudiado la evolución de la cooperación y la comunicación en animales, las pandemias de gripe y las mejores formas de clasificar las revistas científicas. Pero en los últimos 5 años, se ha interesado cada vez más en cómo la «mierda» se propaga a través de nuestro ecosistema de información. Comenzó a combatirlo antes de que surgiera covid-19, a través de un libro popular, un curso que imparte en el Centro para un Público Informado de la UW e, irónicamente, una presencia vigorosa en las redes sociales, pero la pandemia subrayó cuán persuasiva y poderosa es la desinformación. «La desinformación ha alcanzado proporciones de crisis», escribieron Bergstrom y su colega de la UW Jevin West en un artículo de 2021 en las Actas de la Academia Nacional de Ciencias (PNAS). «Representa un riesgo para la paz internacional, interfiere con la toma de decisiones democráticas, pone en peligro el bienestar del planeta y amenaza la salud pública». En otro artículo de PNAS, Bergstrom y otros emitieron un llamado a las armas para que los investigadores estudien la desinformación y aprendan cómo detenerla.
Ese campo de investigación ahora está despegando. «Hay académicos de tantas disciplinas diferentes que se unen en torno a este tema común», incluida la biología, la física, la sociología y la psicología, dice Philipp Lorenz-Spreen, un físico que estudia las redes sociales en el Instituto Max Planck para el Desarrollo Humano.
Pero la afluencia aún no se ha unido en un campo coherente, dice Michael Bang Petersen, politólogo de la Universidad de Aarhus. «Todavía se extiende en diferentes disciplinas y realmente no estamos hablando mucho juntos». También hay desacuerdo sobre la mejor manera de estudiar el fenómeno y cuán significativos son sus efectos. «El campo está realmente en su infancia», dice Lorenz-Spreen.
Carl Bergstrom, un entusiasta de la observación de aves que en el pasado estudió la comunicación animal, analiza las redes sociales a través de una lente evolutiva. Como estudiante de biología en la Universidad de Stanford, Bergstrom quedó fascinado por la comunicación, un rompecabezas evolutivo debido al potencial de engaño. «Si te escucho, te doy una idea de mi comportamiento», dice Bergstrom. En la naturaleza, concluyó que la respuesta es a menudo que las mentiras son costosas. La mendicidad por comida hace que las aves bebés sean vulnerables, por ejemplo, por lo que tienen un incentivo para hacerlo solo cuando sea necesario. «Si solo eres una bola de carne indefensa sentada en un nido y no puedes ir a ninguna parte, gritar a todo pulmón es increíblemente estúpido», dice Bergstrom. «Si no tienen mucha hambre, simplemente se callarán». En las redes sociales, tales repercusiones apenas existen, dice: los mentirosos tienen pocos incentivos para callarse.
Alrededor de 2017, los intereses de Bergstrom comenzaron a unirse en torno al tema de la desinformación. Como muchas otras cosas en la vida, ve las redes sociales a través de una lente evolutiva. Las plataformas populares explotan la necesidad de la humanidad de validación social y charla constante, un producto de nuestra evolución, dice. Lo compara con nuestro antojo de azúcar, que era beneficioso en un ambiente donde la dulzura era rara y señalaba alimentos nutritivos, pero puede enfermarnos en un mundo donde el azúcar está en todas partes. Facebook explota la sed de contacto de los humanos, en su opinión, como una Coca-Cola para la mente, permitiendo a las personas conectarse con otros en mayor número durante un solo día de lo que podrían haber hecho durante toda una vida en el pasado de la humanidad.
Y mientras que Coca-Cola no puede modificar su fórmula semanalmente, las plataformas de redes sociales pueden cambiar constantemente sus algoritmos y probar nuevas estrategias para mantenernos comprometidos. «Las compañías de redes sociales pueden ejecutar los experimentos psicológicos a mayor escala de la historia en muchos órdenes de magnitud, y los están ejecutando en tiempo real en todos nosotros», dice Bergstrom.
A menudo, el compromiso proviene de un conflicto grosero: «En un patio de escuela, la gente se agrupa en torno a peleas, y lo mismo sucede en Twitter», dice. Zeynep Tufekci, socióloga de la Universidad de Columbia, está de acuerdo. «La conexión social es dentro del grupo / fuera del grupo», dice Tufekci. Eso promueve la polarización y el tribalismo, así como la exageración y la desinformación, dice.
Las redes en línea también socavan las reglas generales tradicionales sobre la comunicación. Antes de la llegada de Internet, por ejemplo, escuchar la misma información de varias personas lo hacía más confiable. «En el mundo físico, sería casi imposible conocer a alguien más que piense que el mundo es plano», escribió Stephan Lewandowsky, psicólogo de la Universidad de Bristol, en un correo electrónico. «Pero en línea, puedo conectarme con el otro .000001% de las personas que tienen esa creencia, y puedo reunir la impresión (falsa) de que es ampliamente compartida».
Las empresas de redes sociales tienen pocos incentivos para cambiar sus prácticas porque ganan dinero vendiendo anuncios. «Las estructuras de red a lo largo de las cuales compartimos información han cambiado radicalmente en los últimos 20 años, y han cambiado sin ningún tipo de administración», dice Bergstrom. «Han cambiado básicamente solo para ayudar a algunas nuevas empresas tecnológicas a vender anuncios».
Ver el problema no significa que sea inmune a él. Bergstrom admite que a veces se despierta a las 4 a.m. y revisa sus menciones de Twitter. «Eso es lo más estúpido que podría hacer. Porque una hora y media después, estoy cabreado y no puedo dormir», dice. «Funciona en todos nosotros, incluso en aquellos de nosotros que sabemos lo que están haciendo».
En una perspectiva publicada en PNAS el año pasado, Bergstrom y otros 16 científicos de diversos campos argumentaron que el estudio de cómo el ecosistema de información influye en el comportamiento colectivo humano necesitaba convertirse en una «disciplina de crisis», al igual que la ciencia del clima, que también podría sugerir formas de abordar el problema. «Ese documento solo señalaba que el edificio está en llamas», dice Bak-Coleman, el autor principal, que ahora también está en el Centro para el Público Informado de la UW. Un problema es que no sabemos cómo apagar el fuego, porque la forma en que la información se propaga en las redes sociales está determinada por los algoritmos patentados de las plataformas, que los científicos no han podido estudiar. «Incluso si hubiera una disciplina de crisis como Carl la quiere, simplemente no tenemos los datos», dice Dietram Scheufele, quien estudia comunicación científica en la Universidad de Wisconsin, Madison. (Los algoritmos han ayudado a provocar un «cambio tectónico en el equilibrio de poder en las ecologías de la información científica», argumentaron Scheufele y su colega Dominique Brossard en una perspectiva reciente en Science). «La única forma en que podemos crear esa disciplina es mediante la formulación de políticas que obliguen a las empresas de tecnología a proporcionar acceso a los datos», dice Petersen.
Los investigadores han tratado de comprender el flujo de desinformación y desinformación de otras maneras, pero los resultados a menudo no son claros. El año pasado, un informe del Centro para Contrarrestar el Odio Digital afirmó que solo 12 personas, a las que denominó la «docena de desinformación», fueron la fuente del 73% de la desinformación sobre COVID-19 en Facebook. Prohibir estos «superpropagadores» podría reducir significativamente la cantidad de información errónea, sugirieron los autores. Pero Meta, la empresa matriz de Facebook, rechazó lo que llamó «una narrativa defectuosa» en una publicación de blog. El informe se basó en solo 483 piezas de contenido de solo 30 grupos y «de ninguna manera representa los cientos de millones de publicaciones que las personas han compartido sobre las vacunas COVID-19 en los últimos meses en Facebook», dijo Meta.
En 2018, investigadores del Instituto de Tecnología de Massachusetts publicaron un estudio en Science que muestra que las noticias falsas se propagan «más lejos, más rápido, más profundo y más ampliamente que la verdad». La razón es que a la gente le gusta la novedad, y es probable que las historias falsas sean más novedosas, sugirieron los autores. Si es cierto, esto podría permitir que las noticias falsas se identifiquen automáticamente, simplemente a través de la forma en que se propagan. Pero el panorama es complicado. Un nuevo análisis realizado por otros investigadores a fines del año pasado encontró que, si bien las noticias verificadas por los hechos se extendieron aún más, el patrón de su propagación no fue diferente de las noticias verdaderas que llegaron a un número similar de personas.
Bak-Coleman, quien ha estudiado cómo los bancos de peces suprimen las falsas alarmas de los peces en la periferia del enjambre, cree que la densidad de conexiones en las redes sociales hace que sea más difícil filtrar la mala información. Bergstrom está de acuerdo. «Si realmente nos importara resistir la desinformación, Twitter y Facebook podrían estar mejor si dijeran: ‘Mira, puedes tener 300 amigos y eso es todo'», dice. Pero eso también necesita estudio, dice, al igual que las preguntas estratégicas: «¿Qué harían los agentes si quisieran tratar de inyectar información errónea en una red? ¿Dónde querrían estar? Y luego la otra cara: ¿Cómo tratas de contrarrestar eso?»
Al igual que los virus, la desinformación necesita propagarse por medio de las personas, dice Tufekci. «Entonces, lo que realmente quieres hacer es estudiar a las personas, incluidas las razones de las personas para hacer clic en Me gusta o Retuitear, y si la desinformación cambia su comportamiento y creencias”.
Una revisión de 45 estudios sobre información errónea sobre las vacunas COVID-19, publicada recientemente como preimpresión por investigadores en Noruega, concluyó que, aunque la desinformación era desenfrenada, había pocos estudios de alta calidad de sus efectos. Los científicos han tratado de estudiar el problema aislando una parte muy pequeña del problema. Un artículo reciente en Nature Human Behaviour, por ejemplo, informó los resultados de un experimento realizado en septiembre de 2020, antes de que las vacunas COVID-19 estuvieran disponibles. Los investigadores preguntaron a 4000 personas tanto en el Reino Unido como en los Estados Unidos si planeaban vacunarse, las expusieron a hechos o información falsa sobre las vacunas en desarrollo, y luego midieron su intención nuevamente. En ambos países, la exposición a la desinformación llevó a una disminución de seis puntos porcentuales en la proporción de personas que dijeron que «definitivamente» aceptarían una vacuna.
En Twitter, Carl Bergstrom ha luchado contra el aumento de la desinformación y ha reflexionado sobre él. Pero Scheufele no está tan seguro de que la desinformación tenga un gran impacto. «Hay una correlación, por supuesto, entre toda esta desinformación y la decisión de tantas personas de no vacunarse, pero la correlación no significa causalidad», dice. Él cree que las personas eligen la información para ajustarse a su visión del mundo, no al revés. En su opinión, la desinformación es un síntoma, pero la verdadera enfermedad es la polarización y un sistema político y un clima social que la recompensa. Dada la profunda polarización política en Estados Unidos y la presidencia inusual de Trump, la pandemia siempre iba a ser un espectáculo de allí, dice Scheufele.
Una revisión reciente en Nature, sin embargo, argumentó que las personas no caen en la desinformación debido a la polarización. Los autores citaron estudios que sugieren que es más probable que se crea información verdadera que información falsa, incluso si no se alinea con los puntos de vista políticos de uno. «La política no triunfa sobre la verdad», concluyeron. El verdadero problema es que las personas comparten información con poca atención a si es cierta, escribieron los autores. «En lugar de ser engañados por el partidismo, las personas a menudo no logran discernir la verdad de la ficción porque no se detienen y reflexionan sobre la precisión de lo que ven en las redes sociales». Frenar este intercambio irreflexivo es el objetivo de dos enfoques para abordar la desinformación. Uno, conocido en el campo como «empujón», incluye cualquier cosa, desde marcar información sospechosa, por ejemplo, porque se basa en fuentes pocas o anónimas, hasta dificultar el intercambio de algo. Una plataforma puede obligar a los usuarios a copiar y pegar material antes de compartirlo, o poner un límite a la frecuencia con la que se puede volver a compartir una publicación, o detectar la desinformación, y la «lectura lateral», verificando nueva información mientras la lee buscando información externa.
Bergstrom se da cuenta de que su batalla contra la desinformación es una tarea de Sísifo. Le gusta citar la ley de Brandolini, que dice que «la cantidad de energía necesaria para refutar la mierda es un orden de magnitud mayor de lo que se necesita para producirla». Tufekci está de acuerdo. «Me gustan las cosas de Carl. Me beneficio de seguirlo y estoy segura de que las personas que lo siguen se benefician de seguirlo», dice. «Pero la solución social no es necesitar a Carl».
Una versión de esta historia apareció en Science, Vol 375, Issue 6587.
Kai Kupferschmidt
Fuente: Science, 23-3-2022