Por Juan Manuel Matos
Estudio y reflexiones del proceso de distribución de las fake news con un ejemplo real, y el posible impacto que pudiera tener en la sociedad la distribución masiva de este tipo de bulos. ¿Somos los usuarios los responsables de la existencia de las noticias falsas? ¿Hacen suficiente las plataformas de las redes sociales para atajarlas? ¿Cómo afectará a la democracia este ambiente de información intoxicada?
“The real conquests of science have been so vast and unexpected,
so much like the workings of magic, that people eagerly pay their homage to a power,
which, though, mysterious enough to engage their credulity,
accomplishes everyday feats that witches,
ghosts and magicians performed only on rare occasions.”
Anónimo. “From Superstition to Humbug”. Revista Science 1883
[…] the growing exclusion of the humanities,
may be slowly undermining the very analytical skills the public needs to be
able to counter the tides of misinformation.
Carolyn N. Biltoft
“The anatomy of credulity and incredulity:
a hermeneutics of misinformation”.
Misinformation Review. 2020
…Una generación se adhirió a la veracidad, otra al “fin de siècle” y
una tercera al implacable “espíritu de principio”
Robert Musil. El hombre sin atributos.
The smoking gun
En la mayoría de las noticias mal intencionadas o campañas de desinformación (sobre todo si estas son a gran escala) el seguimiento del quién, cómo, cuándo y por qué, se convierte en una investigación casi detectivesca, en algunos casos, e imposible en la mayoría de ellos. Es por esto que hemos tomado el ejemplo de una noticia aparecida en la edición digital del diario El País el 6 de mayo de 2020 . Es un caso pequeño, donde se pudo hacer una trazabilidad de la información que fue fácil de atajar, y cuya extensión en el tiempo se vio acotada.
Las páginas que vamos a desarrollar tienen, por momentos, el tono de una novela negra. Los hechos sucedieron, en su mayoría, a lo largo del día 6 de mayo de 2020 y terminó sin mayores consecuencias al día siguiente.
En este caso, aparentemente todo es claro: hay un arma, hay una víctima, un autor ¿culpable?, y una motivación. Sin embargo, las piezas no encajan correctamente. Como en toda historia de detectives, las horas y los escenarios en lo que todo sucedió son importantes para entender las consecuencias.
No trataremos el tema de las motivaciones, aunque se apuntará algo sobre ello, pero sí trataremos cómo se “mueven” las noticias y por qué todos estamos expuestos a las fake news. Café en mano y un cigarrillo, repasemos todo:
Madrid 6 de mayo de 2020, 11.16 (+1GMT)
El diario El País publica, en directo, mientras se desarrolla la sesión parlamentaria de control al Gobierno: Casado anuncia la abstención del PP tras un discurso de gran dureza contra Sánchez . Tras un mes y medio el Gobierno de España se somete por tercera vez a la renovación del estado de alarma. La unidad sobre las medidas adoptadas en el principio de la pandemia del COVID-19, se resquebraja. Las posiciones de los grupos parlamentarios ya no son las mismas. Tras una sesión muy tensa, entre insultos y reproches de la oposición y el Gobierno de la nación, se consigue aprobar por quince días más la prórroga por un escaso margen.
El Partido Popular (PP, centro derecha) viéndose acosado por la ultraderecha, ha venido recrudeciendo sus críticas a la gestión del Gobierno con frases como: “Aproveche, porque será la última votación que no va a ser negativa, es usted el peor presidente en el peor momento, pero afortunadamente esto no le saldrá gratis” o “El caos es usted”.
Es importante apuntar que en la anterior sesión parlamentaria (29 de abril) se produjeron varias y muy duras acusaciones del partido de ultraderecha VOX al Gobierno, argumentando que se estaba censurando la información y manipulando no solo a los medios, sino también a las redes sociales. Más parecía que se estuviese en el mes de enero o febrero de este año y no en medio de la peor crisis sanitaria que ha vivido la humanidad en los últimos cien años.
Londres 6 de mayo de 2020, 10.20 (GMT)
El autor de los hechos, del que se conoce su nombre, llega a la oficina. Enciende su ordenador y mientras toma un café revisa la prensa diaria. Dicho ordenador, el arma material de los hechos, tiene configurado el traductor automático del navegador. Revisa la prensa diaria, abre la página de El País y se encuentra que la noticia mencionada anteriormente ha sido traducida de la siguiente manera: Married announces the abstention of the PP after a harsh speech against Sánchez.
Quedan muy lejos los tiempos en que Google traducía I`m in Madrid por Yo soy en Madrid. Lingüística y tecnología se han apalancado para mejorar una herramienta que hoy día usan muchos profesionales. Muchas App hacen una traducción mediante voz lo bastante aceptable como para poder viajar a un lugar donde no se hable nuestro idioma y comunicarnos. Pero los algoritmos de traducción todavía tienen fallos. Eso a veces produce situaciones equívocas al traducir de forma errónea un término .
Actualmente los algoritmos de traducción pueden detectar palabras en un contexto, lo que hace posible que diferencien: homónimos, nombres propios o giros lingüísticos. Pero todavía se producen fallos. Existen casos particulares, como este, en los que no pueden diferenciar el significado de un término, e.g.: un apellido al inicio de una frase (Casado), de un participio (casado = married). Si no fuese por las consecuencias de lo que vamos a ver pasaría como algo anecdótico.
Londres 6 de mayo de 2020, 10.25 (GMT)
Este es el momento crítico. El autor ve el contenido y le parece algo divertido pues precisamente resalta lo que ocurre todavía con los traductores automáticos, los errores de interpretación de un término. Saca una fotografía con el móvil (figura 1) y la envía a un grupo de amigos por WhatsApp, este punto es también un aspecto importante por el grado de seguridad y la opacidad que presenta este medio.
A partir de este instante es necesario acudir a términos de la comunicación, la psicología, la epidemiología, la sociología y las matemáticas para saber lo que ocurre.
Londres 6 de mayo de 2020, 10.30 (GMT)
Minutos después algunos de los miembros del grupo de WhatsApp lo contactan para confirmar la veracidad de la información y si él es el autor de la fotografía. Aclara la situación y confirma que ha sido él quien la ha enviado. Comunicacionalmente ha ocurrido lo que vemos en la figura 2.
Es el esquema clásico de un proceso de comunicación. También es importante acotar que dentro de ese grupo de WhatsApp, el autor insistía mucho a sus miembros sobre la necesidad de confirmar el origen y de contrastar la información, en otras palabras él era una fuente fiable. Si todos los miembros del grupo hubieran hecho lo mismo o solo unos pocos, pero sin reenviar la información, el círculo comunicacional estaría cerrado.
Pero hubo una persona que reenvió el mensaje sin verificar si el término “Married” se correspondía a un error de traducción (que era la intención de quien tomó la fotografía), o a la línea editorial de El País para ridiculizar a Pablo Casado.
Londres 6 de mayo de 2020, 10.35 (GTM)
Varios de los miembros del grupo vuelven a pedirle que les confirme si esa foto es suya y si ese contenido era real, pues les está llegando por otras vías.
El autor recibe un mensaje de un conocido a través de Twitter. Le pide si puede confirmar la veracidad de esta información. Él aclara la autoría y el contexto de la fotografía. Esta persona no se encontraba en el grupo de WhatsApp y sabía que él estaba en Londres.
La cuenta de Twitter de nuestro autor tenía muy pocos seguidores, por lo que le extrañó que por esa vía se le pidiera confirmación sobre la noticia. De hecho, por esa vía se desconoce que él es quién ha enviado esa foto y que su intención no era la de criticar a El País. Si fuera un virus de la naturaleza, los virólogos hablarían de una zoonosis o salto entre especies. Aquí el mensaje mutó en su intencionalidad.
Para entender lo que sucedió a continuación es necesario acudir a investigaciones que estudian el efecto cascada, la formación de la opinión pública y la influencia de las redes sociales.
Los cooperadores necesarios
Gadwell (2000) se pregunta “¿Cómo un pequeño grupo de personas hace que su opinión sea ampliamente compartida por el resto?”, un poco más adelante nos responde: “El éxito de cualquier tipo de epidemia social depende en gran medida de la participación de personas con particulares y raros dones sociales”. Carlos Cossio, en 1973 , apuntaba empíricamente a esa misma idea.
Cossio establece que la opinión pública se genera a partir de cuatro estratos. El primero es el de los creadores de la información, son los que generan la base objetiva del conocimiento o información. El segundo el de los expertos, que de alguna manera hacen suyo el contenido para difundirlo a continuación, en su modelo serían los críticos y periodistas. El tercero los receptores para los que “[…] los juicios de los expertos, incluyendo su base objetiva de valoración, están subjetivamente interiorizados” (Lertora, 2003) . Es en este estrato donde finalmente se crea el estado de opinión, modelado por los dos estratos superiores.
Los estratos segundo y tercero son diferentes pero se complementan. En ambos existe el factor emocional que marca el estado de opinión. Los juicios de valor de los expertos (segundo estrato), están interiorizados y no necesitan exteriorizarlos abiertamente. Por lo tanto, los transmiten de forma natural al tercer estrato. Para entendernos, un periodista político comunicará en una crónica parlamentaria su orientación política sin necesidad de expresarlo abiertamente.
Ese sesgo subjetivo y emocional se transmite al tercer estrato. Son estos quienes defenderán una opinión que consideran mayoritaria o correcta. Ese conocimiento, esa información no sería nada sin el factor emocional. En términos de Cossio es una sensación de verdad compartida.
Finalmente, está el cuarto estrato. Este es indiferente, no sabe o no le interesa ese conocimiento, opinión o información… pero que tampoco se muestra contrario. Cossio los llama masa, pero también afirma que todos podemos ser masa en algún momento o respecto a algún tema; por ejemplo, las aficiones deportivas o los gustos culinarios.
Bertrand Russell (1978) dice en La conquista de la Felicidad, lo siguiente: “Para la mayor parte, […] cualquier ambiente en el que se encuentren les es simpático. Se saturan en su juventud de prejuicios corrientes y se adoptan por instinto a las ideas y a las costumbres que se encuentran a su alrededor” (p.125) . Este es el comportamiento del cuarto estrato.
La visión de Cossio es jerarquizada y de algún modo estática, tal como lo vemos en la figura 3. Define bien la forma en que se entendía la conformación de los estados de opinión en la era del logocentrismo. Los periódicos, la radio y la televisión (en general); los críticos, periodistas y columnistas (en particular) filtraban y modelaban los contenidos. Bajo ese esquema no cualquiera podía escribir u opinar o por lo menos le era muy difícil.
Siguiendo esta línea de pensamiento, en el caso Married nos encontramos un grupo cerrado de personas que reciben una información y acuden al experto para confirmarla o, asumiendo la veracidad del contenido (viene de un experto), lo retransmite. Otros de alguna manera “dejaron pasar” esa fotografía sin hacer mucho caso. En su entorno era algo simpático, como diría Russell, no les era ajeno. Pero sobre todo era una verdad compartida al menos por uno de ellos, que al considerar la información válida la compartió sin verificarla, pero con una intencionalidad diferente.
Sobre esto hagamos dos apuntes. Recientes ensayos han establecido la manera en que las emociones como la ira o el miedo contribuirían a la difusión de noticias falsas. Según Chuai y Zhao (2020) “[…] las mutaciones en las emociones como el aumento de la ira acelerarán progresivamente la información que se difunde” . En su investigación han establecido que la ira es lo que dirige a las audiencias más incentivadas en términos de manejo de la ansiedad e intercambio de información en consecuencia. Esto hace que las fake news sean más contagiosas que las noticias reales.
Los humanos tenemos la imperiosa necesidad de sentirnos seguros. Esto en las dos acepciones que tiene en nuestro idioma “estar seguro”, es decir: estar a salvo (que no nos pase o afecte nada) y estar en lo cierto (poseer la información correcta). Lo anterior choca diariamente con la interacción que tenemos con los medios de comunicación y las redes sociales. Esto ayuda a entender cómo, en medio de esta avalancha de desinformación, las personas se “se tragan” o incluso amplifican las fake news (Biltoft 2020) .
Hasta aquí hemos visto cómo se han comportado cada uno de los participantes y los roles que han asumido cada uno.
La pista del crimen
Hace viente años, cuando Internet 2.0 y la redes sociales empezaron a surgir, Gladwell (2000) describía cómo se puede generalizar una opinión a partir de un pequeño grupo de personas y, esto es importante, por qué dicha opinión termina siendo aceptada por la mayoría.
Establece un sistema más dinámico. Podríamos decir que más “elástico”. En su teoría dice que las personas que poseen unas particulares características para transmitir y moldear la información se dividen en tres grupos:
- Los conectores (connectors). En esencia tienen una gran red de contactos que hacen que la información fluya. Hoy podría ser un grupo de Facebook o WhatsApp, un grupo numeroso de seguidores en Twitter o Instagram.
- Los especialistas (maven). Son aquellos en quienes confiamos cuando recibimos una información, no necesariamente han de ser críticos o periodistas. En esta categoría entrarían los grupos de presión o lobbies.
- Los persuasores (salesmen). Aquellos que tienen el poder de convencimiento sobre otras personas, en términos actuales podrían ser, por ejemplo, los influencers de YouTube o Instagram.
En este esquema Gadwell no se centra en quién genera el contenido, sino en quienes “mueven” la información entre un grupo de personas. Ese pequeño grupo de personas son las que van movilizando y difundiendo dicho contenido hasta hacer que sea ampliamente aceptado por la sociedad.
Un mejor ejemplo lo tenemos dentro del activismo por los derechos sociales de las minorías (sean estas de sexo, etnia, raza, religión, discapacidad, identidad de género u orientación sexual) pues la forma en que han generado un estado de opinión favorable es similar a lo planteado por Gadwell.
Son los activistas que mediante sus redes sociales, en conferencias y artículos promueven una línea de pensamiento, y quienes de alguna manera “venden”, comunican y persuaden de la necesidad de un cambio en las desigualdades estructurales de la sociedad.
En el año 2000 los Países Bajos era el único país que permitía el matrimonio entre personas del mismo sexo. En general, y en diverso grado, la opinión pública en Alemania, Austria, Francia, España o Estados Unidos era contraria a que las parejas del mismo sexo pudieran tener el mismo tipo de derechos (fiscalidad, adopción, viudedad), que las parejas heterosexuales.
Sin embargo, para el 2015 la situación era otra, diecinueve países más la reconocían, figura 4. Para el 2020, once países más (Alemania, Australia, Austria, Chile, Colombia, Ecuador, Estonia, Grecia, Hungría y República Checa) han legislado para permitir la equiparación de derechos.
Los grupos de activistas han permitido que en menos de veinte años desaparezca la criminalización de la homosexualidad en casi todo Occidente, que no se considere enfermedad mental, que se tengan los mismos derechos y que, en general, la diversidad de orientación y género sea visibilizada de forma positiva.
Hoy en día ese cambio de opinión es mucho más rápido, no hablamos ya de meses o años. Las campañas electorales de Barak Obama de 2008 y 2012 fueron las primeras en utilizar las redes sociales para generar mensajes que iban dirigidos a grupos específicos, y tuvo éxito. La campaña de 2012 de Donald Trump utilizó el mismo método, con la diferencia que dichos mensajes estaban destinados a desinformar. La “sospecha” de que Obama no era norteamericano o las “dudas” acerca de los fondos de la campaña de Hillary Clinton son ejemplos de ello.
En el caso Married, el grupo de WhatsApp en el que se compartió la información tenía una particularidad. El autor del hecho era particularmente insistente con el tema de las fake news y de la necesidad de comprobar las fuentes, es decir, de alguna manera era el especialista (maven), por eso se entiende que una persona haya reenviado la información sin corroborarla o preguntarle a él sobre el origen de la misma. Esa persona de alguna manera se convirtió en un persuasor y propició que la información saliera del grupo de WhatsApp y pudiera saltar a otras redes sociales.
Hoy en día ese cambio de opinión es mucho más rápido, no hablamos ya de meses o años. Las campañas electorales de Barak Obama de 2008 y 2012 fueron las primeras en utilizar las redes sociales para generar mensajes que iban dirigidos a grupos específicos, y tuvo éxito. La campaña de 2012 de Donald Trump utilizó el mismo método, con la diferencia que dichos mensajes estaban destinados a desinformar. La “sospecha” de que Obama no era norteamericano o las “dudas” acerca de los fondos de la campaña de Hillary Clinton son ejemplos de ello.
En el caso Married, el grupo de WhatsApp en el que se compartió la información tenía una particularidad. El autor del hecho era particularmente insistente con el tema de las fake news y de la necesidad de comprobar las fuentes, es decir, de alguna manera era el especialista (maven), por eso se entiende que una persona haya reenviado la información sin corroborarla o preguntarle a él sobre el origen de la misma. Esa persona de alguna manera se convirtió en un persuasor y propició que la información saliera del grupo de WhatsApp y pudiera saltar a otras redes sociales.
Madrid y Bruselas 6 de mayo de 2020, 11.22 (+1 GMT)
Periodistas y políticos comienzan a difundir el mensaje como ejemplo de:
- Cómo se manipula a los medios desde el Gobierno de España.
- Lo laxa y frívola que es la redacción de El País. Es de resaltar que el diario se encontraba en plena campaña de suscriptores para su edición digital.
Uno de los políticos que utilizó Twitter para reenviar el mensaje fue el eurodiputado Hermann Tertsch, en su cuenta tiene 207 mil seguidores. Almuneda Negro, diputada del PP, con 19 mil 600 seguidores; Periodista Digital, un diario digital de derecha, con 64 mil 200 seguidores; Josef Ajram, inversor español, con 249 mil 500 seguidores; Guadalupe Sánchez Baena, abogada y columnista de derecha, con 29 mil seguidores, también retuitearon el mensaje.
En menos de una hora el mensaje había alcanzado, al menos, a más de 565 mil personas solo en Twitter. La redacción de El País pasó buena parte del día desmintiendo el bulo, hasta que al día siguiente (7 de mayo) a las 17.07 (+1 GMT) lanza un comunicado aclarando el malentendido.
… se pierde todo rastro
Lo ocurrido solo puede explicarse por el efecto cascada. En 2002 Cossio C. (1973): La opinión pública. Barcelona: Paidos, se pregunta: “¿Cómo es que pequeñas interacciones iniciales pueden caer en cascada para afectar o interrumpir grandes sistemas que han demostrado ser estables con respecto a perturbaciones similares en el pasado?”
En los fenómenos de cascada las personas tienen un comportamiento de rebaño porque toman decisiones basadas en las acciones de otros individuos en lugar de confiar en su propia información. Watts nos explica que: “[…] la propagación en cascada está limitada por la conectividad de la red […], donde la distribución de los vecinos de la red está muy sesgada, se descubre que los nodos más conectados son mucho más propensos […] a desencadenar cascadas.”
Traduciendo esto a lo ocurrido en nuestro grupo (nodo), es un grupo estable por lo que la propagación no se produce desde allí, sino en el momento en que salta a otra red social y donde se pierde la intencionalidad original del autor. Es en Twitter donde se produce la cascada, por lo menos desde donde podemos hacer un seguimiento. Los grupos (nodos) con un sesgo emocional e ideológico específico (personas blancas, de derecha, confrontadas abiertamente con el Gobierno) facilitaron la difusión masiva.
Podemos seguir la distribución en Twitter y en otras redes con más o menos facilidad. Todos han eliminado el tuit, algunos en el mismo día, algunos unas semanas después. Unos dejando constancia de que era una información falsa, otros simplemente borrándolo.
Sin embargo, la distribución por medio de WhatsApp, tiene un problema… es una caja negra. Cualquier información que circule por esta red se encuentra cifrada y, además, los grupos son cerrados y privados. Intentar saber el alcance que tuvo por esa vía es una incógnita. Se sabe que el bulo siguió distribuyéndose pues apareció en un informe de la Guardia Civil un mes después. Los virólogos hablarían de reservorios donde el virus está latente hasta que se dan las condiciones que lo activen nuevamente, no es gratuita esta metáfora… más adelante hablaremos de los falsos recuerdos (Bookbinder, S. y Brainerd, C. 2016) .
El culpable es el mayordomo
La visión de muchos periodistas y articulistas es, en general, –me refiero a la sociedad española y el momento actual– la de: “¿cómo puede la gente tragarse (creerse) eso (las fake news)?”. Esa forma de pensar es culpabilizar a la víctima, es decir al receptor.
Las indígenas yanomami llevan una cinta muy fina que cuelga de un hombro, cruza sobre su pecho y sube por su espalda, ese es su vestido. Sin esa cinta, dentro de su cultura y su forma de ver el mundo, están desnudas. Preguntarse: “¿cómo pueden creerse que eso es un vestido?” Sería, además de temerario, juzgar sus cánones de vestimenta desde una perspectiva occidental y nada empática. La comparación es hiperbólica, pero ayuda a situar esa forma de culpabilizar al receptor.
Sí, existe una responsabilidad individual de contrastar la información. Esto a pesar de ser Occidente una cultura individualista que se centra en la preservación y defensa de las libertades del individuo. Sí, debemos contrastar la información, pero también existen unas responsabilidades colectivas que deberíamos tener en cuenta. Pero debemos distinguir entre la infinitud en potencia (las causas y motivaciones que están detrás de las fake news) y la finitud del acto (creer y sentirse seguro).
¿Somos responsables del efecto burbuja en el que vivimos gracias a los algoritmos de las redes sociales? ¿Cuán responsables son Google, Facebook o cualquier otra red social de utilizar nuestro historial para facilitar nuestras búsquedas? ¿Hasta qué punto somos mercancía para las redes sociales? ¿Sabemos utilizar las redes sociales? Si es lícito el uso comercial de las mismas, ¿hasta dónde es lícito el uso político?
El escenario del crimen: el Salvaje Oeste
Antes de la aparición de las redes sociales la generación de contenidos estaba en manos de pocos, la difusión de información mal intencionada, errónea o tergiversada estaba acotada y era posible, no digo que siempre se hiciera , atajarla, corregirla o desmentirla.
Hoy en día todos podemos generar contenidos y opinar, podemos controlar lo que decimos, podemos intentar desmentir información desde nuestro “púlpito”, pero ¿qué podemos hacer ante la maquinaria que, en muchos casos, está detrás de la difusión de las fake news? ¿Qué podemos hacer frente a campañas donde están involucrados gobiernos, partidos políticos o instituciones?
Twitter informó en 2019 de la suspensión o identificación de más de 205 mil cuentas falsas (200 mil solo en China) , ese mismo año Facebook anuncia que ha eliminado 2 mil millones de cuentas falsas . Dentro de ese grupo, Facebook desmontó una red de cuentas falsas dedicadas a influir en la imagen del presidente de Honduras . Eliminaron 181 cuentas y 1.488 páginas con 120 mil seguidores. Sin embargo, regresaron “[…] dos semanas después […] y volvían a tener un volumen similar de usuarios”. Un año después seguía funcionando dicha red.
En 2020, durante la cuarentena debida al COVID-19, en España hubo un verdadero aluvión de noticias falsas; desde campañas dirigidas a desgastar al Gobierno, perjudicar un medio de comunicación o un colectivo; hasta informaciones que aseguraban tener curas alternativas que eran eficaces para evitar el contagio. Diariamente se daba cuenta de bulos y campañas de desinformación en: las ruedas de prensa del Gobierno, los telediarios, los diarios digitales e impresos, las emisoras de radio y las redes sociales.
Fueron meses de infoxicación donde no parecía posible hacer frente a un fenómeno que se ha convertido en una industria, máxime cuando muchos gobiernos utilizan, también, dichas estrategias. Donald Trump es un ejemplo de ello, Anthony Fauci (director del Instituto Nacional de Alergia y Enfermedades Infecciosas de los Estados Unidos) tenía que desmentir, acotar, matizar o directamente contradecir las declaraciones del presidente.
Ya a mediados de septiembre de 2020, se hizo público que 672 mil cuentas de Facebook habían interactuado de forma maliciosa con el Ministerio de Sanidad de España durante la pandemia.
En el primer trimestre de 2020 (T 1), Youtube eliminó más de 6 millones de videos debido a alguna violación de los lineamientos establecidos por la comunidad. En el segundo trimestre (T 2) cerca de 11,5 millones. La mayoría de estos videos se eliminaron antes de recibir diez visitas (77,3 % en el T1 y 75,7 % en el T2). Sobre el restante 22,7 % (T1) y 24,3 % (T2) el informe de YouTube no indica cuántas veces se vieron antes de ser eliminados. Son un porcentaje significativo de fake news difundidas a través de esta red social.
El Oxford Internet Institute (OII) publicó a finales de septiembre un informe que resulta desalentador . Dicho informe se basa en 8 mil 105 videos en inglés publicados en YouTube y luego eliminados por contener información falsa sobre COVID-19. Los mencionados videos, que se detectaron entre octubre de 2019 y junio de 2020, eran menos del 1 % de todos los que se subieron a esa red social y que tenían esa temática. Hasta aquí las buenas noticias.
Ahora las malas noticias. YouTube tardó una media de 41 días en eliminarlos, pero no termina ahí la historia. El informe indica que la mayor audiencia de estos videos no se encontraba en el propio YouTube sino en Facebook, Reddit o Twitter después de haber sido compartidos. Un poco más arriba hablábamos de la “zoonosis” entre las redes sociales, aquí tenemos otro ejemplo. El salto de una red social a otra complica enormemente poder atajar los bulos, desmentirlos, o desmontar las redes que están detrás de las fake news.
Siguiendo con el informe del OII, Facebook colocó etiquetas de advertencia solo en 55 de los mencionados videos de la muestra. Es decir, menos del 1 %. Pero la parte demoledora viene a continuación; si se suman todas las interacciones de ABC News, Al Jazeera, BBC, CNN y Fox News no llegan al número de interacciones que tuvieron estos videos. Los que fueron objeto de la investigación (8 mil 105) se compartieron cerca de 20 millones de veces.
Las políticas para limitar la visibilidad del contenido en Youtube “[…] no son suficientes para contener información errónea si encuentran a su audiencia a través de otros canales. A través de enlaces de Facebook, millones de usuarios descubren y comparten videos de información errónea de YouTube” .
Aunque Facebook cuenta con una red de verificadores de datos independientes para evaluar el contenido compartido en la plataforma, dichos verificadores no centran su esfuerzo en los videos de YouTube, o no tienen el suficiente alcance para cubrir la información errónea que proviene de YouTube .
Los videos se compartieron en más de 32 mil comunidades de Facebook. Solo 250 de esos grupos se compartieron 1,2 millones de veces.
Según un gerente de Facebook encargado del área de dar respuesta estratégica a esta situación “[…] la mayor parte del mundo fuera de Occidente es efectivamente el Salvaje Oeste”. A la veracidad, según se dice, “Entre todos la mataron y ella sola se murió”.
Los sospechosos habituales
En 1947 se estrena la película La dama de Shangai. Cuando Glenn Anders, Rita Hayworth y Orson Wells se encuentran en el laberinto de los espejos se ven reflejados y multiplicados. En el momento cumbre de la escena Glenn Anders aparece nueve veces reflejado copando toda la pantalla, dando la ilusión de estar en todas partes. Valga esto como símil de lo que vamos a comentar a continuación.
No sería posible explicar cómo se “mueven”, es decir cómo se difunden, las noticias sin la teoría de la Majority Illusion . En palabras de quienes han investigado este fenómeno, viene a ser:
[…] la prevalencia puntual de un atributo entre los vecinos del nodo de una red puede ser muy diferente de su prevalencia global, creando la ilusión de que el atributo es mucho más común de lo que realmente es. En las redes sociales, esta ilusión puede hacer que las personas lleguen a conclusiones erróneas acerca de cuán común es un comportamiento.
Para entendernos. Tenemos un grupo de personas relacionadas entre ellas de forma diferente, es decir, no todos se relacionan con todos. Entonces, esa diferencia de relaciones hará que las personas tengan una diferente percepción del pensamiento mayoritario en ese grupo. Por lo cual, si somos capaces de detectar cuales son los nodos que son influyentes en un grupo (periodistas, diarios, medios o personas muy activas en sus redes sociales) e influir sobre ellos, podremos alterar la percepción de una gran parte de la población.
Veámoslo de manera visual, en la figura 5. Tanto el gráfico de la derecha como el de la izquierda representan a un grupo con la misma interconexión entre los nodos, también en ambos la opinión “roja” es claramente minoritaria. Sin embargo, si preguntásemos a cada una de las personas (nodo) pertenecientes al grupo de la izquierda la mayoría diría que la opinión mayoritaria es “roja”. Todo esto ocurre por las conexiones de cada nodo tal como se ve en la tabla 1.
Antes de terminar. ¿Recuerdan el monóculo del personaje de Monopoly? ¿Recuerdan el color de los tirantes del ratón Mickey? ¿Recuerdan las fotos que compartieron en Facebook en verano de 2007? ¿Recuerdan, aquellos que siguen la actualidad española, cuándo Esperanza Aguirre dijo que leía a la autora Sara Mago, en vez del autor Saramago? ¿Sí? Pues bien, no lleva monóculo; Mickey no tiene tirantes; Facebook, en castellano, no estuvo disponible hasta febrero de 2008… y Esperanza Aguirre nunca dijo eso. Sin embargo, es muy probable que si consultamos a alguien, por la forma en que están formuladas las preguntas anteriores responda que sí lo recuerda.
Elizabeth Loftus en 1973 realizó un experimento donde ante un mismo hecho pero con formas de preguntar diferente, los testigos presenciales describían la situación de manera diferente. En concreto se preguntaba la velocidad a la que un vehículo chocaba o se estrellaba. “Dar a la gente detalles erróneos puede alterar lo que recuerda de eventos pasados” plantea Loftus. Esto nos crea la duda ¿las fake news pueden alterar cómo recordamos ciertos eventos?
Es inevitable relacionar los recuerdos falsos con las noticias falsas y las redes sociales. La información que recibimos está contaminada. […] Las noticias falsas van a contribuir a que la gente construya recuerdos y creencias sobre cosas que nunca sucedieron. […] Incluso si educamos a la gente y les advertimos de la distorsión de la memoria, seguirán siendo vulnerables.
El veredicto del jurado
Si tuviéramos que juzgar el hecho ¿Tendríamos toda la información necesaria? ¿Habría un culpable? ¿La intención bastaba? ¿Cuánto influyó el sesgo emocional? ¿El salto entre las redes sociales lo justifica todo? Resumamos:
- Un emisor: que remitió como algo divertido un error del traductor automático de Google.
- Un mensaje: un pantallazo de la mencionada traducción.
- Un grupo receptor: bastante cohesionado, donde el emisor tenía una función de prescriptor, pues insistía mucho en que se verificaran las fuentes.
- Dos receptores que corroboran la información con el emisor.
- Un receptor asumió como “verdad compartida” y se convierte en reemisor del mensaje, que viene de un prescriptor. Es de suponer un sesgo emocional para este receptor que cambió consciente o inconscientemente la intención original.
- Un salto entre varias redes sociales: sabemos que luego se compartió al menos en tres redes sociales WhatsApp, Twitter y Facebook.
- Una difusión en cascada del mensaje: esta vez ya no con la intención original del primer emisor y que termina casi 48 horas después con un comunicado del diario El País.
- Nuestro cerebro que no funciona como un ordenador… sino más bien como la Wikipedia que puede modificarse o moldearse.
- Unas relaciones en las redes sociales donde una o más personas pueden influir en un cambio de opinión.
- Unas redes sociales que intentan atajar la desinformación.
Visto así, y retomando lo mencionado más arriba, el mensaje debería haber sido confirmado por los receptores. Sobre todo los del primer grupo, y no se habría producido el malentendido.
Vuelvo a insistir, sí existe una responsabilidad individual pero ¿qué pasa cuando recibimos una información de un medio o un receptor en el que confiamos? Aquí es donde el factor emocional marca la diferencia: si nuestra necesidad de estar seguros (a salvo y en lo cierto), si nuestras fuentes son “fiables”, si la información que recibimos de esas fuentes es parte de nuestra “verdad compartida”, ¿es lógico ponerlo en duda?
Algunos diarios se han hecho eco de bulos sin quererlo y han tenido que desmentirlo horas o días después. Pensemos en nuestro día a día, muchas de nuestras decisiones se basan en la confianza que nos generan los otros, ese sesgo emocional nos ayuda a tomar muchas decisiones.
Pensemos, por ejemplo, en nuestro médico de cabecera. Tendría que hacer algo realmente grave para que desconfiemos de él como profesional sanitario. Evidentemente no confiamos en él para invertir en la bolsa, no es un especialista. Sin embargo, si nos recomienda el restaurante que está enfrente de su consulta, es probable que le hagamos caso y vayamos allí. Él no es crítico gastronómico, pero su opinión tiene para nosotros cierto valor puesto que come ahí todos los días.
Los turistas cuando vamos de viaje a un lugar por primera vez confiamos en las guías turísticas, en los blogueros, en las páginas de Internet, en los foros; incluso en recomendaciones que nos dan en el hotel… y no conocemos a ninguna de esas personas. ¿Debe ser diferente cuando la información nos llega de alguien que conocemos y en quién confiamos? ¿Nuestro día a día nos permite dudar y contrastar todas las informaciones que nos llegan?
Si en nuestro grupo de WhatsApp del trabajo nos dicen que hay dragones atacando el centro de la ciudad, nos reiremos… pero ¿y si nos dicen que hay un accidente de tráfico en la calle donde trabajamos, o que el banco donde tenemos nuestros ahorros está a punto de quebrar? Son muchos los casos en que los rumores han producido el cierre de una institución bancaria.
Hay matices en la información y en el emisor que hace que le demos veracidad a la información. No es que “nos traguemos” los bulos; es que, a veces, no tenemos más remedio, o bien no podemos corroborar la información, o para nosotros la fuente es fiable.
Hasta aquí hemos visto un caso puntual al que por fortuna se pudo hacer un seguimiento casi hora a hora. No fue un caso intencionado sino un malentendido y a casi todos los involucrados se les podía identificar. ¿Pero qué ocurre si es realmente mal intencionado? ¿Y si detrás de muchos de estos casos estuviera una “industria mediática” de las fake news?
Los asesinos en serie
Cuando a principios de siglo Internet apareció en nuestras vidas lo cambió todo. Sus usos lo hacían una herramienta óptima para la potenciación de la educación y la difusión del conocimiento. Por ejemplo, fue esperanzadora la primera operación que se realizó a distancia, un cirujano en Londres dirigiendo en directo una operación que se realizaba en Mozambique. Se especulaba sobre la potenciación de la libertad de expresión. La aparición de nuevas profesiones era algo evidente. Se hablaba de la desaparición de la prensa y del libro…
Veinte años después, Donald Trump recomienda la lejía para combatir el COVID-19 y hay gente que muere por ello. Durante el confinamiento en España el consumo de pornografía se quintuplicó, el proyecto de ordenadores baratos para el tercer mundo encalló. Nos dimos de bruces con el reverso de la tecnología. No quiero decir con esto que todo sea negativo, pero creo que nadie fue capaz de ver el otro uso que se le podía dar… o no lo quiso decir.
El papel que hoy día juegan los community managers, los copywriters, los expertos en CEO y SEM, en las empresas es importante. La imagen de empresa, la promoción de nuevos productos y servicios pasan necesariamente por ser publicitados, también, a través de las redes sociales.
¿Qué ocurre cuando en vez de promocionar un producto o servicio, se trata de promocionar un partido político o un personaje público? Las estrategias son casi las mismas. Pero ¿qué ocurre cuando un gobierno quiere influir en la política de otro país? ¿Qué ocurre si queremos influir en un estado de opinión particular?
Con la pandemia del COVID-19 la industria de las fake news ha estado particularmente activa. La descripción de su funcionamiento, realizada por un extrabajador de una de estas agencias dedicadas a la desinformación, es escalofriante por la escala a la que se trabaja:
El software lleva todos los bots, que se dividen en grupos. Cada grupo utiliza una API […] Llegamos a tener 3.000 o 4.000 cuentas en una misma API […] Ven cuántas cuentas están participando en un tema y se establece cuántas serían necesarias para tener influencia […]
No se trata de un malentendido como en el caso que analizábamos al principio de este artículo. Es una maquinaria… y la forma en que se difunden las informaciones y la forma en que explica por qué la “gente se las traga” son las mismas que explicamos antes.
La financiación de estas campañas es millonaria y está perfectamente organizada, con miles de cuentas falsas que envían y reenvían informaciones falsas, como si fuera una caja de resonancia.
Los analistas miran cuántos tuits hacen falta para colarse en tendencias. Se cargan los tuits en la plataforma de bots. El cliente saca el primer tuit. Rápido se pone en marcha la red de bots. Es crucial que haya muchos tuits en un espacio corto de tiempo. Los trols alfa salen con tuits de impacto. Los analistas de datos monitorean para saber si hace falta salir con más tuits, si hay que frenar la red de bots. Los trols beta apoyan la acción, responden a los críticos, animan a otros usuarios con la misma ideología.
Reducción de daños
El término de reducción de daños que alude a las intervenciones en materia de salud pública que persiguen reducir las consecuencias negativas derivadas del consumo de drogas. Canadá ha sido uno de los países pioneros en esta forma de prevención. El fin último es el de crear entornos seguros para poder brindar ayuda a las personas que tienen problemas de dependencia.
En nuestra sociedad la información nos llega por muchas vías y a todas horas. Diariamente nos bombardean con noticias de todo tipo: imprescindibles, necesarias, útiles, no tan útiles, relevantes, bien intencionadas pero erróneas, tergiversadas o malintencionadas. La nuestra es una sociedad infoxicada donde no es factible dejar de consumir información para evitar los bulos. Discernir entre tantas fuentes es un proceso agotador. “No puedes mantener esa alerta en el primer plano de tu consciencia a todas horas” . Por ello, generar entornos seguros donde poder verificar y contrastar la información se hace cada vez más necesario.
Toda la responsabilidad no ha de caer solo en los receptores o usuarios. Toda la cadena de transmisión de la información ha de contribuir a la reducción de daños. Si en toda la cadena de información se establecen “controles de calidad” sería factible atajar y reducir la difusión de fake news.
¿Qué están haciendo los medios de comunicación y las redes sociales?
Twitter ha dado un primer paso al colocar una pestaña indicando que determinado contenido podría ser tendencioso o falso. WhatsApp limitó el número de reenvíos, aunque la caja negra en la que se ha convertido al cifrar los mensajes hace imposible atajar las noticias falsas. Facebook contrató en 2019 a AFP, Newtral y Maldita.es para controlar las noticias falsas . Es un inicio, complicado y muy delicado, pues todas estas medidas deben hacer difícil equilibrio entre la libertad de expresión y la censura; pero como hemos visto no parece suficiente.
Algunos medios han creado la figura del defensor del lector, del suscriptor, del oyente o del televidente, en un intento de dar voz a los receptores y hacer las respectivas correcciones o verificaciones de información. En el caso que hemos analizado esta figura fue clave para aclarar el malentendido de la fotografía.
Por otro lado, al menos en España, en numerosos programas de opinión, se ha creado una sección dedicada a denunciar ciertos bulos que se difunden.
¿Qué pueden hacer los comunicadores sociales?
El reto no es pequeño
Los que trabajáis en medios no siempre conocéis este ecosistema. En cierto modo, es fácil engañar a un periodista. Siempre estáis buscando información y, a día de hoy, Internet es una fuente muy grande. Si un periodista da con tu contenido, ve que tiene apoyo y cuadra con lo que él quiere (o tiene) que comunicar, quizá lo coge. Las estrategias para cada caso son diferentes. Por ejemplo: para una empresa acusada de corrupción creamos un ecosistema que defendía los puestos de trabajo (trabajadores preocupados por las medidas que se pedían tomar contra la empresa).
A la responsabilidad de verificar sus fuentes, un periodista ahora ha de conocer mucho más el funcionamiento de las redes sociales y la forma en que se mueve la información por las redes y cómo esta puede afectar o no a sus receptores. Las redes de profesionales y las asociaciones tienen mucho trabajo por delante, pues los sesgos emocionales siempre estarán ahí.
¿Qué puede hacer el Estado?
La escuela siempre ha estado a rebufo de la tecnología. Los alumnos al culminar su educación saben cómo germina una planta o cómo una mutación de las células puede producir un tumor. Saben usar las redes sociales y conocen la tecnología mejor que sus profesores. En este ámbito “Se mueven como pez en el agua”. Pero no sabrían diseccionar esas mismas redes en busca del tumor de las fake news. Esta es una asignatura pendiente en el currículo de nuestra sociedad, las aguas por las que se mueven nuestros “peces” se está volviendo toxica.
Por otro lado, el atajar a estas industrias de los bulos es fundamental para las sociedades democráticas de Occidente. La erosión de credibilidad que puede sufrir una figura pública, una ideología determinada o un gobierno, afecta a todas las instituciones públicas. En esto no hablo de partidos o gobiernos en particular. La falta de credibilidad en las instituciones o de su buen hacer, le deja abierta la puerta a los superlíderes, al mesianismo, y al populismo, sean de izquierda o de derecha.
Las fake news son una amenaza a la democracia dado que su poder está en la capacidad de influir la opinión pública sobre la base de la información engañosa o tergiversada; se aprovecha del miedo, la inseguridad, las divisiones sociales e ideológicas y da a quienes las consumen la satisfacción de leer algo que confirme su cosmovisión (Butcher, 2019) …en otras palabras les da la seguridad de estar “del lado correcto” y de “hacer lo correcto”.
Finalmente, ¿qué podemos hacer como ciudadanos?
Todo lo dicho antes no es descargo a nuestra responsabilidad individual; lo que vengo a decir es que no solo es nuestra.
Ven cuántas cuentas están participando en un tema y se establece cuántas serían necesarias para tener influencia […] Se realizan listas de cuentas favorables y contrarias y se analiza el peso que tienen.
Llegados a este punto sé que hay más preguntas que respuestas, que el panorama no es bueno, hay nubes en el horizonte y amenaza tormenta. Lo más que puedo hacer es completar el esquema que planteé en la figura 2 con uno más complejo que refleja esta era de la posverdad en la figura 6.
No nos queda otra que contrastar con nuestro entorno. Tener diversas fuentes: no siempre Internet es un reflejo de nuestra sociedad. Ni nuestra sociedad reflejo de Internet.
Notas:
PEINADO, M. (2020, mayo 13): El “paciente cero” que inició sin pretenderlo el bulo sobre Pablo ‘Married’. En: El País. Recuperado 15 mayo 2020 de: https://verne.elpais.com/verne/2020/05/12/articulo/1589273076_643900.html
DÍEZ, A. (2020, mayo 6): Casado anuncia la abstención del PP tras un discurso de gran dureza contra Sánchez. En: El País. Recuperado 15 de mayo 2020: https://elpais.com/espana/politica/2020-05-06/pedro-sanchez-pide-al-congreso-que-apruebe-la-cuarta-prorroga-del-estado-de-alarma-en-directo.html
Pongo un ejemplo. Hace bastantes años, en la editorial que trabajaba, un texto de enfermería debió traducirse al catalán de forma muy rápida. La persona que realizó el trabajo para poder cumplir las fechas utilizó un traductor automático bastante preciso y luego lo revisó. Pero se le pasó una frase que cuando la corregí en las pruebas finales no dejó de producirme una sonrisa. Parecía humor negro de no ser por la gravedad del error. La frase en cuestión era más o menos así: “En la sala de curas deberá haber el siguiente material…” y se tradujo de la siguiente manera: “A la sala del`s capellans ha d’haver el següent material…” (En la sala de los capellanes deberá haber el siguiente material…).
GADWELL, M. (2000): The tipping point: how little things can make a big difference. Brown, New York: Little. Transcript.
COSSIO, C. (1973): La opinión pública. Barcelona: Paidos.
LERTORA, C. (2003): Carlos Cossio ante la condición humana. Recuperado 17 de mayo 2020: https://www.ensayistas.org/critica/generales/C-H/argentina/cossio.htm
RUSSELL, B. (1978). La conquista de la felicidad. Madrid: Espasa.
CHUAI, Y.; ZHAO, J. (2020). Anger makes fake news viral online. Recuperado en: https://arxiv.org/pdf/2004.10399.pdf Transcrip.
CHUAI, Y.; ZHAO, J., Op. Cit.
BILTOFT, C. (2020, abril 30): “The anatomy of credulity and incredulity: a hermeneutics of misinformation”. En: Misinfortation Review. Recuperado 17 de septiembre 2020: https://misinforeview.hks.harvard.edu/article/the-anatomy-of-credulity-and-incredulity-or-a-hermeneutics-of-misinformation/
GADWELL M., Op. Cit.
SUDEBAR, A. (2018, noviembre 28): “Fake news: Christopher Blair, el creador de “ridículas” noticias falsas que triunfan entre seguidores de Donald Trump”. En: BBC News. Recuperado 17 de mayo 2020: https://www.bbc.com/mundo/noticias-46363904.
HUNTER, S. (2020, mayo 7): No, la edición en inglés de EL PAÍS no ha llamado al presidente del PP ‘Paul Married’. El País. Recuperado 17 de mayo 2020: https://elpais.com/elpais/2020/05/07/hechos/1588861227_968094.html
WATTS, D. (2002): A simple model of global cascades on random networks. PNAS. Abril 30 99 (9). doi: 10.1073/pnas.082090499 Transcript
WATTS, D., Op.Cit. Transcript.
BOOKBINDER, S. H., y BRAINERD, C. J. (2016): “Emotion and false memory: The context–content paradox”. En: Psychological Bulletin, 142(12), 1315–1351. https://doi.org/10.1037/bul0000077
Desde hace mucho existen las falsas noticias, se expone un caso que puede ser paradigmático en:
MATOS, J. (2020): “2020: el año que el mundo se paró. Reflexiones veinte años después de ¿A dónde vamos?” En: Comunicación, 2ºtrimestre (190-191), 47-59. Recuperado 3 de octubre: http://revistacomunicacion.com/2020/09/17/2020-el-ano-que-el-mundo-se-paro-reflexiones-veinte-anos-despues-de-a-donde-vamos/
Twitter (2019): Revelamos nuevos datos en nuestro archivo de operaciones de información. Septiembre 20: https://blog.twitter.com/es_es/topics/company/2019/OperacionesInformacion.html
SILVERMAN, C. (2019, mayo 24): “Facebook Removed Over 2 Billion Fake Accounts, But The Problem Is Getting Worse”. En: Buzzfeed News. Recuperado 15 de septiembre 2020: https://www.buzzfeednews.com/article/craigsilverman/facebook-fake-accounts-afd
Facebook (2019): Removing Coordinated Inauthentic Behavior in Thailand, Russia, Ukraine and Honduras Removing Coordinated Inauthentic Behavior in Thailand, Russia, Ukraine and Honduras. Julio 25: https://about.fb.com/news/2019/07/removing-cib-thailand-russia-ukraine-honduras/
SILVERMAN, C., RYAN, M. y PRANAV, D. (2020, septiembre 14): “’I have blood on my hands’: a whistleblower says Facebook ignored global political manipulation”. En: Buzzfeed News. Recuperado 15 de septiembre 2020: https://www.buzzfeednews.com/article/craigsilverman/facebook-ignore-political-manipulation-whistleblower-memo
BBC (2020, agosto 5): “Facebook y Twitter actúan contra cuentas de Trump por ‘desinformación’ relacionada con el coronavirus”. En: BBC News. Recuperado 17 de septiembre de 2020: https://www.bbc.com/mundo/noticias-53673804
Del CASTILLO, C. (2020, septiembre 15): “Una red de 672.000 bots operó en Facebook para manipular a la opinión pública española durante la pandemia”. En: El Diario. Recuperado 17 de septiembre 2020: https://www.eldiario.es/tecnologia/red-672-000-bots-opero-facebook-manipular-opinion-publica-espanola-durante-pandemia_1_6221713.html
SILVERMAN, C., RYAN, M. y PRANAV, D., Op. Cit. Transcript.
Youtube (2020): Aplicación de las normas de la comunidad de YouTube. Recuperado de: https://transparencyreport.google.com/youtube-policy/removals?total_removed_videos=period:Y2020Q1;exclude_automated:human_only&lu=content_by_flag&videos_by_views=period:Y2020Q1&content_by_flag=period:Y2020Q1;exclude_automated:human_only
KNUUTILA, A., HERASIMENKA, A., AU, H., BRIGHT, J., NIELSEN, R. y HOWARD, P. (2020, septiembre 21): Covid-related misinformation on YouTube. The spread of misinformation videos on social media and the effectiveness of Platform Policies. Oxford Internet Institute. Recuperado de: https://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2020/09/Knuutila-YouTube-misinfo-memo-v1.pdf
SILVERMAN, C., RYAN, M. y PRANAV, D., Op. Cit. Transcript.
Centro Virtual Cervantes. Refranero multilingüe: https://cvc.cervantes.es/lengua/refranero/ficha.aspx?Par=58750&Lng=0#:~:text=Significado%3A%20En%20ocasiones%20se%20achaca,resultado%20han%20contribuido%20varios%20factores
En castellano se utiliza mayoritariamente el termino Espejismo de la mayoría, pero pierde la acepción inglesa de “engaño o truco”.
LERMAN, K., YAN, X. y WU, X-Z. (2016). “The ‘Majority Illusion’ in social networks”. En: PLoS ONE 11(2): e0147617 https://doi.org/10.1371/journal.pone.0147617 Transcript.
LOFTUS, E., PALMER, J. (1974): Reconstruction of automobile destruction: an example of the interaction between language and memory. Recuperado de:
https://doi.org/10.1016/S0022-5371(74)80011-3
XIMÉNEZ, P. (2017, marzo 13): Elizabeth Loftus: “Tus recuerdos son como Wikipedia, se pueden modificar”. En: El País. Recuperado 17 de septiembre 2020: https://elpais.com/elpais/2017/03/13/eps/1489405172_148940.html
PORNHUB (2020, abril 14): Coronavirus insights. Recuperado 17 de septiembre de 20202: https://www.pornhub.com/insights/corona-virus
API (Application Programming Interface): son aplicaciones que permiten conectarse entre diversas redes sociales, su uso es común entre los gestores de contenido. Permiten gestionar el contenido de forma masiva y estratégica. Algunas de ellas son Hootsuite, Buffer o Postcron.
PÉREZ, J. (2020, mayo 21): “Yo fui un bot”: las confesiones de un agente dedicado al engaño en Twitter. En: El País. Recuperado 25 de mayo 2020: https://elpais.com/tecnologia/2020-05-20/yo-fui-un-bot-las-confesiones-de-un-agente-dedicado-al-engano-en-twitter.html
LA VANGUARDIA (2019, marzo 13): “Facebook ficha a la productora de Ana Pastor”. Recuperado 25 de mayo 2020: https://www.lavanguardia.com/television/20190312/461005086300/facebook-ana-pastor-newtral-fake-news-noticias-falsas.html
BUTCHER, P., (2019, enero 30): “Disinformation and democracy: the home front in the information war”. En: European Policy Centre. Recuperado 17 de septiembre 2020: https://wms.flexious.be/editor/plugins/imagemanager/content/2140/PDF/2019/190130_Disinformationdemocracy_PB.pdf
Según la Real Academia Española: Distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales.
Juan Manuel Matos
Máster en Comunicación y Educación. Comunicador social por la UCAB. Exprofesor de la UCAB y de la Universidad Autónoma de Barcelona (UAB).