doxa.comunicación | nº 33, pp. 321-346 | julio-diciembre de 2021

ISSN: 1696-019X / e-ISSN: 2386-3978

Agenda temática, metodologías e impacto de la investigación sobre desinformación. Revisión sistemática de la literatura (2016-2020)1

Research on disinformation: topics, methodology and impact. A systematic literature review (2016-2020)

David García-Marín. Doctor por la UNED. Profesor Ayudante Doctor en el Departamento De Periodismo y Comunicación Corporativa de la Universidad Rey Juan Carlos, donde imparte asignaturas sobre nuevas tecnologías y sociedad de la información y producción radiofónica. Ejerce como profesor invitado en diversos másteres en comunicación digital y periodismo transmedia en la UNED, donde ha dirigido varios cursos sobre medios digitales y desinformación. Investigador de la Cátedra Jean Monnet EUDFAKE: EU, disinformation and fake news financiada por el programa Erasmus+ de la Comisión Europea, y del proyecto “Racionalidad y contraconocimiento. Epistemología de la detección de falsedades en relatos informativos” financiado por el Ministerio de Ciencia, Innovación y Universidades de España. Su último libro publicado es La posverdad. Una cartografía de los medios, las redes y la política (Gedisa, 2019).

Universidad Rey Juan Carlos, Madrid, España

[email protected]

ORCID: 0000-0002-4575-1911

Cómo citar este artículo:

García-Marín, D. (2021). Agenda temática, metodologías e impacto de la investigación sobre desinformación. Revisión sistemática de la literatura (2016-2020). Doxa Comunicación, 33, pp. 321-346.

https://doi.org/10.31921/doxacom.n33a854

Recibido: 20/05/2021 - Aceptado: 23/09/2021 - En edición: 26/10/2021 - Publicado: 01/12/2021

Resumen

Desde el año 2016, el análisis de la desinformación y las fake news se ha convertido en una de las principales tendencias en la investigación científica producida desde diferentes campos del saber. A fin de conocer cuáles son los temas, las áreas del conocimiento, los países de procedencia y los tipos de trabajo y metodologías de estos estudios, así como analizar su impacto, se presenta una revisión sistemática de la literatura realizada en la base de datos Web of Science. Se analizó un total de 605 artículos publicados entre 2016 y 2020. Se aplicaron cálculos estadísticos descriptivos e inferenciales no paramétricos (pruebas de Kruskal-Wallis y U de Mann-Whitney) con el objetivo de descubrir diferencias significativas en el número de citas recibidas en cada una de las variables anteriormente mencionadas. Las soluciones para afrontar el fenómeno de la desinformación son las temáticas más frecuentes, pero los trabajos sobre los patrones de propagación del contenido falso presentan mayor impacto. Destaca la alta presencia de estudios de tipo cuantitativo, sobre todo procedentes del ámbito anglosajón. La aproximación metodológica de los trabajos es la única variable que resulta relevante en el impacto de este tipo de estudios.

Palabras clave:

Desinformación; fake news; revisión sistemática; metodología de la investigación; impacto científico.

Received: 20/05/2021 - Accepted: 23/09/2021 - Early access: 26/10/2021 - Published: 01/12/2021

Abstract:

Since 2016, the analysis of disinformation and fake news has become one of the main trends in scientific research fields. In order to discover the topics, areas of knowledge, countries of origin and methodologies of these studies, as well as to analyse their impact, a systematic literature review was conducted in the Web of Science database. A total of 605 articles published between 2016 and 2020 were analysed. Nonparametric descriptive and inferential statistical methods (Kruskal-Wallis and Mann-Whitney U tests) were applied with the aim of discovering significant differences in the number of references received for each of the aforementioned variables. The most frequent topics are possible solutions to tackle disinformation, but papers on the propagation patterns of false content achieve greater impact. There is a notable presence of quantitative studies, mainly from English-speaking sources. The methodological approach is the only variable that can be considered relevant to the impact of this research.

Keywords:

Disinformation; fake news; systematic literature review; research methodology; scientific impact.

1. Introducción y revisión de la literatura

El análisis de la desinformación y las fake news ha sido una de las principales tendencias de los últimos años en la investigación científica producida desde diferentes áreas del conocimiento. Desde la victoria de Donald Trump en las elecciones de 2016 y el referéndum del Brexit en el Reino Unido, gran parte de la atención investigadora se ha centrado en descubrir las causas, las características formales, los patrones de producción y propagación y las posibles soluciones de este fenómeno, considerado como uno de los principales problemas en las democracias actuales (Elías, 2021). En los sistemas democráticos liberales, el interés por la desinformación “radica en su presunta capacidad para elevar los niveles de polarización política y, en último término, dañar los principios que fundamentan la convivencia” (Fernández-Roldán, 2021: 60), de ahí la preocupación por este problema desde el ámbito científico, especialmente en el campo de la comunicación.

Tras unos primeros años de optimismo alrededor de las posibilidades democratizadoras y emancipadoras propiciadas por los entornos digitales (Jenkins, 2006; Shirky, 2010), para el impulso de movimientos sociales (Castells, 2012) y el florecimiento del llamado “periodismo ciudadano” (Gillmor, 2004), en el último lustro han proliferado las investigaciones que colocan a los nuevos desarrollos tecnológicos digitales aplicados a la comunicación como una de las principales causas del actual fenómeno de la desinformación. Por ello, gran parte de los estudios se han centrado en cómo frenar la producción y difusión de contenidos falsos en los espacios digitales (Margolin, Hannak y Weber, 2018; Zhang et al., 2019), el análisis de las campañas de desinformación en entornos virtuales (Endsley, 2018) y cómo detectar falsos rumores en las redes sociales (Zubiaga et al., 2018). Este tipo de trabajos abordan también la evaluación de la calidad de las fuentes en estos entornos (Kim, Moravec y Dennis, 2019; Pennycook y Rand, 2019) e, incluso, la idoneidad de censurar contenidos en estas plataformas (Citron, 2018).

La investigación sobre desinformación también ha tenido una mirada amable hacia la tecnología, que sitúa a las herramientas digitales como aliadas en la lucha contra la desinformación. De hecho, un espacio de análisis de creciente importancia durante los últimos años ha sido la efectividad de las soluciones automatizadas y algorítmicas para la detección de noticias falsas (Soe, 2018; Ko et al., 2019). Algunos de estos estudios, como el de Del Vicario et al. (2019), se centran en el análisis de modelos predictivos que ayuden a comprender mejor los patrones de producción de las fake news. Especialmente prolíficos han sido los estudios sobre la detección de los contenidos falsos en las redes, a partir de propuestas de herramientas automáticas de identificación y visualización de noticias falsas (Shu, Mahudeswaran y Liu, 2019). Estas aproximaciones han sido desarrolladas desde dos puntos de vista. Por un lado, existen numerosos estudios que analizan las características de los contenidos para entrenar a los algoritmos en la detección de la desinformación mediante técnicas de aprendizaje automático (machine learning) (Wang et al, 2018), análisis textual (Horne y Adali, 2017), herramientas estilométricas (Potthast et al., 2018) y modelos cuantitativos para la evaluación de la credibilidad del mensaje (Fairbanks et al., 2018). Otros trabajos proponen técnicas de aprendizaje profundo (deep learning) como abordaje para la identificación del contenido malicioso (Riedel et al., 2017; Popat et al., 2018). Por otro, cabe destacar los trabajos centrados en la detección de la desinformación a partir de las características contextuales donde ésta se produce (Tacchini et al., 2017; Volkova et al., 2017) y circula (Wu y Liu, 2018).

También dentro del ámbito tecnológico, los estudios de Fletcher, Schifferes y Thurman (2020) pretenden analizar la efectividad de los algoritmos para realizar evaluaciones automáticas de la credibilidad de las fuentes. En el mismo campo, otras investigaciones se han enfocado en la moderación algorítmica de los contenidos (Gorwa, Binns y Katzenbach, 2020), el uso del big data para detectar la desinformación (Torabi-Asr y Taboada, 2019), la identificación automática de bots en contextos digitales (Beskow y Carley, 2019) y las aplicaciones del blockchain en contra de las informaciones falsas (Chen et al., 2020).

Al margen de las implicaciones tecnológicas de este fenómeno, las estrategias de comunicación para luchar contra la desinformación también han generado un amplio volumen de estudios. Concretamente, estos trabajos han analizado la comunicación efectiva de la ciencia (Rose, 2018), las acciones de contrapropaganda frente a las campañas de desinformación de determinados países (Haigh, Haigh y Kozak, 2018) o cómo contrarrestar los discursos populistas (Bosworth, 2019). Asimismo, gran parte de los trabajos sobre esta problemática se centran en el papel de los medios de comunicación en las crisis desinformativas, sobre todo desde el ámbito del periodismo de verificación (fact-checking). En este campo, se han realizado numerosos estudios sobre la efectividad de estas entidades a la hora de desmontar noticias falsas sobre ciencia (Peter y Koch, 2016), salud (Vraga y Bode, 2017), en contextos electorales (Nyhan et al., 2020) y altamente polarizados (Zollo et al., 2017). La aproximación al estudio del fact-checking también se ha efectuado desde el análisis de sus mecanismos de transparencia para explicar los procesos de verificación a la ciudadanía (Humprecht, 2020), sus efectos sobre la credibilidad de los políticos (Agadjanian et al., 2019) o el uso de las redes sociales y los servicios de mensajería instantánea para desarrollar su labor (Bernal-Triviño y Clares-Gavilan, 2019). Otras investigaciones han puesto en valor el papel del periodismo de investigación colaborativo (Carson y Farhall, 2018), el establecimiento de límites y estándares periodísticos de calidad que contribuyan a diferenciar claramente la información veraz de los contenidos maliciosos y de dudosa calidad (Luengo y García-Marín, 2020), las estrategias a llevar a cabo desde los propios medios para mejorar su credibilidad y la confianza de la ciudadanía (Vos y Thomas, 2018; Pickard, 2020) y la adopción de modelos de comunicación más horizontales y participativos en su relación con las audiencias (Meier, Kraus y Michaeler, 2018).

Como observamos, la desinformación es un objeto de estudio que se ha analizado desde diferentes perspectivas y áreas del saber. El carácter multidimensional del fenómeno (Aparici y García-Marín, 2019) obliga a adoptar abordajes desde diferentes campos al margen del ámbito de la comunicación (y en combinación con éste), tales como las ciencias computacionales, la psicología, la sociología o la educación. Los ciudadanos, los gobiernos en diferentes niveles, los investigadores, las compañías tecnológicas y las organizaciones periodísticas deben, por tanto, unir sus fuerzas para mitigar los contenidos falsos que circulan en los espacios digitales y en los medios tradicionales (Dahlgren, 2018).

En este sentido, la necesidad de implementar programas de alfabetización digital e informacional a partir de pedagogías críticas (Higdon, 2020) tiene una presencia relevante en la investigación sobre esta problemática. En este ámbito, destacan las aportaciones de Roozenbeek y Van der Linden (2019) y Roozenbeek et al. (2020) sobre la efectividad de la estrategia de la inoculación para poner a los ciudadanos en la piel de los creadores de desinformación a fin de detectarla. Desde una perspectiva más general, otras investigaciones han demostrado la eficiencia que los proyectos de alfabetización informacional tienen en la lucha contra los contenidos maliciosos (Amazeen y Bucy, 2019), en redes sociales como Twitter (Vraga, Bode y Tully, 2020) y en países concretos, como Estados Unidos o India (Guess et al., 2020). Khan y Idris (2019) han demostrado la correlación entre la educación informacional de la ciudadanía y la capacidad de identificar noticias falsas, mientras que otros trabajos como los de Gómez-Suárez (2017) y Buckingham (2019) ponen de relieve la importancia del pensamiento crítico en cualquier proyecto de educación mediática contra los contenidos maliciosos. Asimismo, el estallido de informaciones engañosas e inventadas sobre la Covid-19 desde comienzos de 2020 ha provocado que no pocas voces defiendan la implementación de acciones para potenciar la educación científica de los ciudadanos (Hughes, 2019; López-Borrull, 2020; Sharon y Baram-Tsabari, 2020).

Durante los últimos años, también han sido ciertamente frecuentes los trabajos sobre los marcos regulatorios que determinados países han impuesto a fin de minimizar el impacto de las fake news, especialmente en los medios digitales (Baade, 2018; Perl, Howlett y Ramesh, 2018). De forma más modesta en cuanto al volumen de publicaciones, otros estudios se han interesado por el papel de las bibliotecas como curadores de contenido (Walter et al., 2020), las acciones para recuperar la confianza y credibilidad de las instituciones políticas (Hunt, Wang y Zhuang, 2020), sociales (Bjola y Papadakis, 2020) y educativas, y las implicaciones éticas en la lucha contra la desinformación (Bjola, 2018).

Esta elevada producción académica generada en el último lustro ha favorecido la publicación de diversas revisiones de la literatura científica centrada en el estudio de la desinformación. Algunos trabajos de este tipo, como los de Tandoc (2019) y Jankowski (2018), se han realizado de forma no sistemática. Las revisiones sistemáticas -poco numerosas- se caracterizan por su amplia variedad de temas y enfoques. Destacan aquellas centradas en los estudios específicos sobre las fake news (Ha, Andreu-Pérez y Ray, 2019), las investigaciones sobre el periodismo de verificación (Chan et al., 2017; Nieminen y Rapeli, 2019), los análisis de la desinformación en los social media (Pierri y Ceri, 2019), las revisiones falsas de productos en el marco del comercio electrónico (Wu et al., 2020) y, por último, las definiciones para los diferentes tipos de desinformación con el fin de elaborar una clasificación unificada de los desórdenes informativos (Kapantai et al., 2020).

En sintonía con estos trabajos, nuestra investigación consiste en una revisión sistemática de la literatura (RSL) acerca del fenómeno de la desinformación, desde una perspectiva general y con una mirada cuantitativa. Sin embargo, como se explicará en el siguiente apartado, nuestro estudio presenta claras diferencias con los trabajos de esta naturaleza realizados hasta la fecha. Por un lado, no se centra en un aspecto exclusivo de la problemática, sino que la aborda desde un punto de vista multidimensional y multidisciplinar, integrando las diferentes miradas y áreas del conocimiento desde las que se han afrontado estos estudios. Además, la muestra incluye un volumen de trabajos analizados (n=605) muy superior al número de investigaciones incluidas en las revisiones anteriormente citadas. Por último, integra un análisis estadístico del impacto de estas investigaciones (medido con el número de citas recibidas y normalizado con respecto al año de publicación de los trabajos) a partir del cruce de diferentes variables: temáticas, áreas de conocimiento, tipos de trabajo y país de procedencia.

2. Preguntas de investigación y método

Nuestro trabajo, de tipo eminentemente cuantitativo, pretende dar respuesta a las siguientes cuestiones:

Para responder estas cuestiones, se llevó a cabo un trabajo de revisión sistemática de la literatura bajo los principios propuestos por Kitchenham (2004), caracterizados por la transparencia y sistematización en cada una de sus fases (Codina, 2020). Este abordaje permite conocer en profundidad, evaluar e interpretar el trabajo científico realizado sobre un objeto de estudio determinado en un periodo de tiempo previamente establecido (Ramírez-Montoya y García-Peñalvo, 2018).

Nuestro proceso metodológico se fundamentó en las aportaciones de Higgins et al. (2019), Brereton et al. (2007) y Centre for Reviews and Dissemination de York University (2009), que dividen los estudios con revisiones sistemáticas en tres etapas: (1) planificación del trabajo a partir de la definición previa de un conjunto de preguntas de investigación, (2) realización de la búsqueda documental y creación de la base de datos definitiva tras la aplicación de un conjunto de criterios de inclusión y exclusión, y (3) elaboración del informe de resultados para dar respuesta a las cuestiones previamente establecidas.

Para la identificación de artículos a analizar, centramos nuestro estudio en la base de datos Web of Science (WoS). Al igual que en otros trabajos anteriores similares al nuestro, como el de López-García et al. (2019), utilizamos exclusivamente esta base de datos por ser la de mayor relevancia en el ámbito científico y porque se pretende recoger las investigaciones publicadas en las revistas de mayor impacto y visibilidad a nivel internacional. Para ejecutar la primera fase de recopilación de publicaciones, se adoptaron los siguientes criterios de inclusión:

  1. Estudios publicados en la base de datos Social Sciences Citation Index (SSCI) de WoS.
  2. Periodo de publicación: 2016-2020. Se elige el 2016 como punto de partida por ser el año de eclosión de este fenómeno tal como lo conocemos en nuestros días (Aparici y García-Marín, 2019), con la victoria de Donald Trump en las elecciones estadounidenses y el referéndum del Brexit en el Reino Unido. En 2016, el término post-truth (posverdad) fue elegido palabra del año por el diccionario Oxford. Tras la victoria de Trump a finales de 2016, el uso del término fake news “empezó a generalizarse en los medios de comunicación y, por extensión, en la sociedad” (Rodríguez-Fernández, 2021: 48), como muestra el gráfico de evolución de las búsquedas de este término en Google entre enero de 2004 y mayo de 2021 (figura 1). El crecimiento de las búsquedas comenzó a ser significativo desde noviembre de 2016.
  3. Trabajos que abordan el fenómeno de la desinformación desde cualquiera de sus vertientes y desde cualquier campo del conocimiento (comunicación, psicología, sociología, educación, ciencias políticas, etc.).
  4. Inclusión en el título, resumen o palabras clave de al menos uno de los siguientes términos: “disinformation”, “fake news”, “post-truth” o “misinformation”. Para ello, se realizaron búsquedas avanzadas mediante operadores booleanos: “disinformation” OR “fake news” OR “post-truth” OR “misinformation”.
  5. Quedaron incluidos no solo los trabajos empíricos, sino también los estudios de revisión teórica y los ensayos publicados por revistas científicas.

La recopilación inicial de artículos tuvo lugar el 7 de diciembre de 2020. Se recogieron 2650 publicaciones (figura 2), que fueron analizadas mediante revisión exhaustiva del título, resumen y palabras clave. Sobre este primer corpus de publicaciones, se llevó a cabo un trabajo de depuración mediante la aplicación de dos criterios de exclusión:

  1. Se eliminaron los artículos editoriales de presentación de monográficos y números especiales.
  2. Se excluyeron los trabajos no relacionados con el objeto de estudio, a pesar de incluir algunos de los términos de búsqueda. En este sentido, la búsqueda con el término “misinformation” resultó especialmente problemática, porque bajo este concepto se etiquetan trabajos sobre cómo se establece la comunicación por parte de determinados colectivos (personas con discapacidad, por ejemplo) y entre actuantes no humanos (transmisión de información entre máquinas y/o dispositivos tecnológicos digitales), aspectos que nada tienen que ver con nuestro objeto de estudio. También se descartaron numerosos trabajos con el término “post-truth” porque esta palabra es utilizada en muchos artículos para caracterizar la época actual pero, en realidad, sus temáticas no se sitúan en el ámbito de la desinformación.

Tras esta fase de revisión, la muestra definitiva quedó fijada en 605 trabajos. A continuación, se identificaron las categorías de codificación (señaladas en la tabla 1) para cada una de las siete variables presentes en nuestras preguntas de investigación: (1) tema de los trabajos, (2) año de publicación, (3) áreas de estudio, (4) tipos de trabajo / metodologías, (5) país de origen de la investigación, (6) estudios de caso y (7) impacto normalizado. En el caso del país de origen, se tomó como referencia la nacionalidad de la institución del investigador principal del trabajo. Los datos extraídos fueron analizados mediante estadística descriptiva e inferencial con el paquete estadístico SPSS v.26.

Para medir el impacto de los trabajos, no se utilizó el número absoluto de citas recibidas a fin de evitar distorsiones derivadas del año de publicación. En su lugar, se relativizó el número de citas de cada artículo con respecto al promedio de citas de cada uno de los años de publicación (2016, 2017, 2018, 2019 y 2020). Este promedio de citas anuales se obtuvo de la muestra analizada. Por tanto, el impacto normalizado de cada artículo es el resultado de dividir su número de citas entre el promedio de citas de su año de publicación. Se decidió normalizar el impacto con este procedimiento en lugar de utilizar el dato de citas mundiales del área de conocimiento específico debido a la falta de disponibilidad de tales datos correspondientes a los años 2019 y 2020 (ver tablas de citas mundiales actualizadas en este enlace: https://cutt.ly/3Ejykus).

Figura 1. Evolución de las búsquedas del término “fake news” en Google entre enero de 2004 y mayo de 2021

Fuente: Google Trends

Figura 2. Proceso de revisión sistemática seguido en este trabajo

Fuente: elaboración propia

Tabla 1. Relación de cada variable con sus categorías de codificación

Variable

Categorías de codificación

Tema

General

Soluciones y estrategias

Sesgos cognitivos e ideológicos

Producción de la desinformación

Consecuencias / impacto

Propagación del contenido desinformativo

Causas de la desinformación

Definiciones de conceptos clave

Percepciones sobre la desinformación

Papel del periodismo

Emociones y desinformación

Deepfakes

Negacionismo

Ciberseguridad

Año

2016

2017

2018

2019

2020

Áreas de conocimiento

Comunicación (ningún área relacionada)

Psicología

Política

Análisis de RRSS

Salud

Educación

Ciencia

Sociología

Filosofía

Economía

Tipo de trabajo / metodologías

Cuantitativo

Experimento

Cualitativo

Mixto (cuantitativo-cualitativo)

Revisión teórica

Ensayo

País

Se tuvo en cuenta el país de afiliación del investigador de referencia firmante del artículo

Estudio de caso

Sí / No. Indicar el caso

Impacto normalizado

Número de citas recibidas por el artículo con fecha 07/12/2020, dividido entre el promedio de citas del año del artículo (obtenido de la muestra).

Fuente: elaboración propia

Para ejecutar los cálculos estadísticos inferenciales y, de esta forma, comprobar la existencia de diferencias significativas en las variables del estudio, procedimos previamente a calcular el índice de normalidad de la muestra en cuanto al impacto normalizado. Esta operación es necesaria para elegir la aplicación de pruebas paramétricas o no paramétricas en los cálculos estadísticos. Se llevaron a cabo pruebas de Kolgomorov-Smirnov que determinaron la ausencia de distribuciones normales en la variable relativa al impacto normalizado de los trabajos (p < .01). Por ello, se decidió utilizar pruebas no paramétricas de Kruskal-Wallis y U de Mann-Whitney, a fin de descubrir diferencias relevantes en el impacto en función de las diferentes categorías de las variables y, en su caso, realizar las comparaciones múltiples entre tales categorías.

3. Resultados

Dado el volumen de cuestiones planteadas en nuestro estudio y con el objetivo de facilitar la lectura de este apartado, se presentan los resultados introduciendo primero cada una de las preguntas de nuestra investigación.

P1. ¿Cuáles son los temas investigados en el campo de la desinformación en el periodo 2016-2020? ¿Cuáles tienen más impacto (número de citas recibidas normalizado con respecto al año de publicación)? ¿El tema investigado es una variable determinante en el impacto?

Los estudios más prevalentes son aquellos que analizan las posibles soluciones y estrategias para afrontar el problema de la desinformación (n=144; 23,80%) (tabla 2). Estas investigaciones se centran en un total de 12 subcategorías temáticas: (1) soluciones relacionadas con las plataformas y redes sociales, (2) estrategias de comunicación, (3) el papel de los medios, (4) políticas contra la desinformación, (5) soluciones tecnológicas, algorítmicas y automatizadas, (6) la educación contra las noticias falsas, (7) el papel de las bibliotecas, (8) la recuperación de la confianza en las instituciones, (9) el papel del arte contra la desinformación, (10) implicaciones éticas en la lucha contra las fake news, (11) la verificación y evaluación de fuentes informativas y (12) meta-análisis de las soluciones propuestas. En el apartado de anexos, se recogen todas las soluciones y estrategias frente a la desinformación abordadas por los estudios analizados.

Tabla 2. Promedio y desviación típica del número del impacto normalizado por temas

Tema

Frecuencias

Impacto normalizado

Promedio

DT

Soluciones y estrategias

144 (23,80%)

0,84

0,92

Sesgos cognitivos

119 (19,67%)

0,96

1,41

Producción

84 (13,88%)

0,69

0,78

Consecuencias, impacto

57 (9,42%)

1,17

1,91

Propagación

47 (7,77%)

2,29

5,38

Causas

46 (7,60%)

0,90

0,99

General

34 (5,62%)

0,95

1,25

Definiciones

22 (3,63%)

1,33

2,24

Percepciones (sobre la desinformación)

22 (3,63%)

0,73

0,73

Papel del periodismo

11 (1,81%)

0,38

0,19

Emociones

7 (1,16%)

0,45

0,31

Negacionismo

5 (0,82%)

0,65

0,50

Deepfakes

5 (0,82%)

0,91

0,48

Ciberseguridad

2 (0,33%)

0,43

0,41

p valor (χ2)

< .00*

p valor (Kruskal-Wallis)

.19**

*Se observan diferencias muy significativas cuando p < .01.

**Se observan diferencias significativas cuando p < .05.

Fuente: elaboración propia

Tras las soluciones, los estudios más frecuentes son aquellos relacionados con los sesgos cognitivos e ideológicos (n=119; 19,67%). Los análisis sobre los mecanismos de producción de la desinformación alcanzan el 13,88% de los estudios (n=84), mientras que los relativos a las repercusiones o las consecuencias de esta problemática suponen el 9,42% (n=57). Las pruebas de chi cuadrado determinan diferencias muy significativas en las frecuencias de esta variable [χ2(13, N = 605) = 595.41, p < .00].

Los trabajos con mayor impacto son aquellos que abordan los patrones de propagación de los contenidos falsos (M=2,29; DT=5,38). Tras ellos, se sitúan los estudios que analizan desde un punto de vista teórico las definiciones de los conceptos clave relacionados con esta problemática (fake news, desinformación, posverdad, desórdenes informativos, etc.), con un impacto medio de 1,33 y una desviación típica de 2,24. Los estudios sobre las consecuencias o las repercusiones de la desinformación se sitúan como la tercera temática más citada (M=1,17; DT=1,91). Las pruebas de Kruskal-Wallis observaron que la temática de los trabajos no constituye una variable relevante en su impacto [H(13) = 17.12, p = .19].

P2. ¿Cuál es la frecuencia de estos estudios por año de publicación? ¿Qué temas han sido más publicados cada año?

Los estudios sobre desinformación publicados en WoS han ido en aumento en el periodo 2016-2020. Se han recogido 37 estudios publicados en 2016 (6,11%), 84 en 2017 (13,88%), 151 en 2018 (24,95%), 198 en 2019 (32,72%) y 135 en 2020 (22,31%). Entre 2016 y 2020, las investigaciones publicadas sobre este objeto de estudio se multiplicaron por cinco.

La tabla 3 recoge las temáticas por año incluidas en nuestra muestra. Destacan dos tendencias opuestas. Por un lado, el porcentaje de estudios sobre soluciones y estrategias contra la desinformación crecieron de forma notable durante todo el periodo. Esta temática representaba el 8,10% de los estudios publicados en 2016, mientras que en 2020 este aspecto fue abordado en el 28,89% de los trabajos de ese año. En un sentido inverso, ha descendido de forma relevante el porcentaje de investigaciones sobre sesgos cognitivos, que representaban el 35,13% de los trabajos de 2016 y solo el 17,03% de las investigaciones de 2020. De este dato inferimos que antes de la proliferación de estudios sobre desinformación a partir de 2017, ya existía un notable interés sobre los sesgos psicológicos y la credibilidad de la información.

Tabla 3. Número de trabajos publicados por temáticas durante el periodo 2016-2020. Las frecuencias relativas se refieren al porcentaje de trabajos publicados en esa temática dentro del año

Tema

2016

2017

2018

2019

2020

Causas

2 (5,40%)

9 (10,71%)

14 (9,27%)

17 (8,58%)

4 (2,96%)

Consecuencias, impacto

2 (5,40%)

6 (7,14%)

15 (9,93%)

16 (8,08%)

18 (13,33%)

Definiciones

0 (0,00%)

5 (5,95%)

10 (6,62%)

5 (2,52%)

2 (1,48%)

Propagación

4 (10,81%)

7 (8,33%)

9 (5,96%)

16 (8,08%)

11 (8,14%)

Sesgos cognitivos

13 (35,13%)

24 (28,57%)

23 (15,23%)

36 (18,18%)

23 (17,03%)

Soluciones y estrategias

3 (8,10%)

13 (15,47%)

36 (23,84%)

53 (26,76%)

39 (28,89%)

General

0 (0,00%)

5 (5,95%)

9 (5,96%)

14 (7,07%)

6 (4,44%)

Producción

6 (16,21%)

7 (8,33%)

23 (15,23%)

24 (12,72%)

24 (17,78%)

Percepciones

3 (8,10%)

4 (4,76%)

6 (3,97%)

7 (3,53%)

2 (1,48%)

Negacionismo

0 (0,00%)

1 (1,19%)

1 (0,66%)

3 (1,51%)

0 (0,00%)

Papel del periodismo

1 (2,70%)

1 (1,19%)

3 (1,98%)

3 (1,51%)

3 (2,22%)

Emociones

3 (8,10%)

2 (2,38%)

1 (0,66%)

0 (0,00%)

1 (0,74%)

Deepfakes

0 (0,00%)

0 (0,00%)

0 (0,00%)

3 (1,51%)

2 (1,48%)

Ciberseguridad

0 (0,00%)

0 (0,00%)

1 (0,66%)

1 (0,50%)

0 (0,00%)

Total

37

84

151

198

135

Fuente: elaboración propia

P3. ¿Cuáles son las áreas del conocimiento que realizan estudios sobre desinformación? ¿Cuáles tienen más impacto? ¿El área de conocimiento es una variable determinante en el impacto de los trabajos?

Se observan diferencias muy pronunciadas en el número de estudios por área de conocimiento [χ2(9, N = 605) = 310.62, p < .00]. El campo de la psicología (los estudios sobre sesgos cognitivos, especialmente) es el área desde el que se realizan mayor número de investigaciones (n=131; 21,65%) (tabla 4). Los trabajos desde las ciencias políticas (n=119; 19,67%) y los estudios sobre redes sociales (n=112; 18,51%) han sido también ciertamente prominentes. Tras ellos, se sitúan los artículos sobre salud (n=71; 11,73%), sin duda como consecuencia de la proliferación de investigaciones que analizan la desinformación derivada de la pandemia por Covid-19, asunto muy investigado durante todo el año 2020.

Precisamente, los trabajos que proceden del campo de la salud son los que presentan mayor impacto (M=1,17; DT=1,39). También es relevante el impacto de los estudios sobre desinformación en redes sociales y plataformas digitales (M=1,13; DT=3,33) y los relativos al ámbito de la política (M=1,10; DT=1,90). Los artículos ubicados exclusivamente en el ámbito de la comunicación (sin ningún área relacionada, por tanto) alcanzan un impacto medio de 1,05 (DT=1,66). Las pruebas no paramétricas ejecutadas determinan que el campo de estudio no es un factor relevante en el impacto de estos trabajos [H(9) = 13.60, p = .13].

Tabla 4. Promedio y desviación típica del impacto normalizado por áreas de conocimiento

Áreas

Frecuencias

Impacto normalizado

Promedio

DT

Psicología

131 (21,65%)

0,92

1,36

Política

119 (19,67%)

1,10

1,90

Redes

112 (18,51%)

1,13

3,33

Salud

71 (11,73%)

1,17

1,39

Comunicación (ningún área relacionada)

56 (9,25%)

1,05

1,66

Educación

38 (6,28%)

0,70

0,59

Ciencia

32 (5,29%)

1,04

1,12

Sociología

26 (4,29%)

0,52

0,41

Filosofía

12 (1,98%)

0,42

0,30

Economía

8 (1,32%)

0,80

0,44

p valor (χ2)

< .00*

p valor (Kruskal-Wallis)

.13**

*Se observan diferencias muy significativas cuando p < .01.

**Se observan diferencias significativas cuando p < .05.

Fuente: elaboración propia

P4. ¿Cuáles son los tipos de trabajo y las metodologías de estos estudios? ¿Qué tipos presentan mayor impacto? ¿Es el tipo de trabajo una variable determinante en su impacto?

El ensayo es el tipo de trabajo más frecuente (n=168; 27,77%), seguido de los estudios cuantitativos (n=159; 26,28%) y los experimentales (n=135; 22,31%) (tabla 5). Nótese que los estudios experimentales son también de tipo cuantitativo, por lo que las metodologías cuantitativas alcanzan casi la mitad de la muestra analizada (48,59%). Es mucho menos frecuente la publicación de estudios cualitativos (n=55; 9,09%) y los realizados con metodologías mixtas (articulación de métodos cualitativos y cuantitativos) (n=48; 7,93%) . Como sucedía en el caso de las temáticas y las áreas de conocimiento, existen diferencias muy significativas en las frecuencias de esta variable [χ2(5, N = 605) = 175.09, p < .00].

Los trabajos de tipo cuantitativo no experimental reciben un número mayor de citas relativas y, por tanto, logran mayor impacto (M=1,42; DT=3,18). Tras éstos, se sitúan los estudios de revisión de la literatura (M=1,24; DT=1,90), que presentan un elevado impacto a pesar de ser el tipo de trabajo menos frecuentemente publicado. Los artículos con menor impacto son los de tipo cualitativo (M=0,75; DT=0,94) y los ensayísticos (M=0,76; DT=0,86). Se observa que el tipo de trabajo o metodología utilizada constituye un factor determinante en su impacto [H(5) = 15.78, p < .00]. La tabla 6 recoge los tipos de trabajo concretos donde las diferencias en el impacto resultan significativas (p < .05) o muy significativas (p < .01).

Tabla 5. Promedio y desviación típica del impacto normalizado por tipo de trabajo

Tipo de trabajo / metodología

Frecuencias

Impacto normalizado

Promedio

DT

Ensayo

168 (27,77%)

0,76

0,86

Cuantitativo

159 (26,28%)

1,42

3,18

Experimento

135 (22,31%)

0,84

1,06

Cualitativo

55 (9,09%)

0,75

0,94

Mixto (cuantitativo-cualitativo)

48 (7,93%)

0,93

1,83

Revisión

40 (6,61%)

1,24

1,90

p valor (χ2)

< .00*

p valor (Kruskal-Wallis)

< .00*

*Se observan diferencias muy significativas cuando p < .01.

Fuente: elaboración propia

Tabla 6. Comparativas múltiples mediante prueba de Kruskal-Walis sobre el impacto normalizado para cada uno de los tipos de trabajo / metodologías empleadas

Tipos / métodos comparados

p valor (Kruskal-Wallis

Mixto-Cuantitativo

.031*

Cualitativo-Cuantitativo

.008**

Experimento-Cuantitativo

.007**

Ensayo-Cuantitativo

.002**

*Se observan diferencias significativas cuando p < .05.

**Se observan diferencias muy significativas cuando p < .01.

Fuente: elaboración propia

P5. ¿Cuáles son los países desde donde se realizan estos estudios? ¿Cuáles acumulan mayor impacto? ¿El país de procedencia del estudio es una variable determinante en su impacto?

Como era de esperar, los trabajos procedentes del mundo anglosajón son mayoritarios en este ámbito, siendo Estados Unidos el país que aglutina una abrumadora mayoría de estas investigaciones. Los cuatro países con mayor número de estudios son de habla inglesa: Estados Unidos (n=272; 44,95%), Reino Unido (n=74; 12,23%), Canadá (n=34; 5,61%) y Australia (27; 4,46%). Tras ellos, se sitúan Alemania (n=27; 4,46%) y España, con un total de 25 trabajos (4,13%). En la tabla 7 se recogen los datos de los países que registran más de 10 estudios publicados.

Entre las naciones con más de 10 investigaciones publicadas, el país con mayor impacto es Italia, con un promedio de 1,51. No obstante, el elevado valor de su desviación típica en esta variable (DT= 2,56), nos advierte de la existencia de una distribución muy desigual en el número de citas, por lo que este país publica ciertos trabajos con mucho impacto y otros con una relevancia muy menor. Tras Italia, se sitúan Estados Unidos (M=1,23; DT=2,56), Canadá (M=1,04; DT=1,23), Reino Unido (M=0,80; DT=0,99) y Australia (M=0,80; DT=0,64). Les siguen Alemania (M=0,75; DT=0,66) y Holanda (M=0,73; DT=0,90).

Existen diferencias muy notables en el número de trabajos publicados por países [χ2(47, N = 605) = 5937.99, p < .00]. Por contra, el país de procedencia de los estudios no es una variable determinante en su impacto [H(47) = 54.53, p = .21].

Tabla 7. Promedio y desviación típica del impacto normalizado por país

País

Frecuencias

Impacto normalizado

Promedio

DT

Estados Unidos

272 (44,95%)

1,23

2,56

Reino Unido

74 (12,23%)

0,80

0,99

Canadá

34 (5,61%)

1,04

1,23

Australia

27 (4,46%)

0,80

0,64

Alemania

27 (4,46%)

0,75

0,66

España

25 (4,13%)

0,50

0,58

Italia

18 (2,97%)

1,51

2,56

China

12 (1,98%)

0,44

0,22

Holanda

11 (1,81%)

0,73

0,90

p valor (χ2)

< .00*

p valor (Kruskal-Wallis)

.21**

*Se observan diferencias muy significativas cuando p < .01.

**Se observan diferencias significativas cuando p < .05.

Fuente: elaboración propia

P6. ¿Cuáles son los estudios de caso más frecuentes? ¿La realización de estudios de caso es una variable determinante en el impacto?

En nuestra muestra se detectaron 120 estudios de caso, que representan el 19,83% del total. La desinformación vinculada a la Covid-19 es el caso más analizado (n=26; 21,66%), seguido de las elecciones estadounidenses de 2016 (n=15; 12,505), el mandato de Donald Trump al frente de la Casa Blanca (10,83%) y las injerencias rusas en la política estadounidense (n=8; 6,67%). Se percibe, por tanto, un evidente sesgo geográfico en los casos más analizados, puesto que todos ellos (a excepción de la pandemia por Covid-19) se vinculan con procesos políticos ligados a Estados Unidos, país líder en producción científica en el campo de la desinformación. Los datos completos sobre las frecuencias de los estudios de caso analizados se encuentran disponibles en el siguiente enlace: https://cutt.ly/Bb9Ms5d

Los estudios de caso tienen un mayor impacto (M=1,35; DT= 2,01) que los artículos que no incluyen trabajos de este tipo (M=0,91; DT=1,91). Las pruebas no paramétricas (en este caso, la U de Mann-Whitney ya que comparamos solo dos grupos) detectan diferencias muy significativas en el impacto normalizado de ambos tipos de estudio (z = -2.895, p = .004).

P7. ¿Cuáles son los tipos de trabajo y los métodos de investigación utilizados por los diferentes países?

Se observan diferencias muy relevantes en los tipos de trabajos publicados en función de los países (tabla 8). Destacamos a continuación algunas de las cuestiones más llamativas. En primer lugar, es relevante el elevado porcentaje de estudios cuantitativos realizados en Estados Unidos (57,35% de los trabajos que proceden de este país). El 29,41 de las investigaciones de este país son estudios experimentales. En general, se observa una mayor tendencia en el ámbito anglosajón hacia la publicación cuantitativa y experimental, que alcanza el 37,82% de los estudios en el Reino Unido, el 35,29% en Canadá y el 40,74% en Australia.

Asimismo, es reseñable el elevadísimo porcentaje de trabajos cuantitativos no experimentales realizados en Italia (72,22%). La tendencia de este país hacia la publicación de estudios con mirada cuantitativa puede explicar el elevado impacto medio de los manuscritos publicados desde esta nación; dado que los estudios cuantitativos son los que mayor número de citas relativas reciben. Por contra, más de la mitad de los estudios publicados desde Alemania (51,85%) son ensayos, mientras que España es el país con mayor porcentaje de estudios con aproximaciones mixtas (36,00%). En términos comparados, en España se publican muchos menos estudios de tipo cuantitativo (solo el 16,00%, un 8,00% de los trabajos son experimentales y otro 8,00% cuantitativos no experimentales). Resulta llamativo que los tipos de trabajo que presentan mayor impacto (cuantitativos y revisiones teóricas) son los menos publicados desde España.

Tabla 8. Tipos de trabajo por país. Las frecuencias relativas se refieren al tipo de trabajo publicado por cada país

País

Cuant.

Cualit.

Exper.

Mix.

Rev.

Ens.

Estados Unidos

n=272

76 (27,94%)

15 (5,51%)

80 (29,41%)

11 (4,04%)

14 (5,88%)

74 (27,20%)

Reino Unido

n=74

14 (18,91%)

10 (13,51%)

14 (18,91%)

6 (8,11%)

2 (2,70%)

28 (37,83%)

Canadá

n=34

9 (26,47%)

1 (2,94%)

3 (8,82%)

3 (8,82%)

2 (5,88%)

16 (47,05%)

Australia

n=27

7 (25,92%)

5 (18,51%)

4 (14,81%)

2 (7,40%)

1 (3,70%)

8 (29,63%)

Alemania

n=27

2 (7,40%)

3 (11,11%)

6 (22,22%)

1 (3,70%)

1 (3,70%)

14 (51,85%)

España

n=25

2 (8,00%)

5 (20,00%)

2 (8,00%)

9 (36,00%)

1 (4,00%)

6 (24,00%)

Italia

n=18

13 (72,22%)

1 (5,55%)

1 (5,55%)

0 (0,00%)

2 (11,11%)

1 (5,55%)

China

n=12

7 (58,33%)

0 (0,00%)

1 (8,33%)

1 (8,33%)

1 (8,33%)

2 (16,66%)

Holanda

n=11

1 (9,09%)

2 (18,18%)

4 (36,36%)

1 (9,09%)

2 (18,18%)

1 (9,09%)

Fuente: elaboración propia

P8. ¿Cuáles son los tipos de trabajo y las metodologías utilizadas según la temática de estos estudios?

Por último, nuestros resultados señalan que los estudios sobre las soluciones a la problemática de la desinformación se abordan principalmente desde trabajos ensayísticos (pertenecen a este tipo el 33,33% de las publicaciones sobre este tema), y a través de métodos experimentales (25,00%) (tabla 9). Las causas, las consecuencias de la desinformación y las definiciones sobre conceptos clave se analizan mayoritariamente con ensayos (47,82%; 35,08% y 81,81% respectivamente). Los estudios sobre sesgos se ejecutan, fundamentalmente, con diseños experimentales (65,54%), mientras que los patrones de propagación de los contenidos falsos se abordan con investigaciones cuantitativas no experimentales (65,96%). También es reseñable el porcentaje de este tipo de metodologías cuantitativas utilizadas para analizar la producción de los contenidos desinformativos (40,47%).

Tabla 9. Temáticas abordadas por tipo de trabajo. Las frecuencias relativas se refieren a la temática para cada tipo de trabajo

Tema

Cuant.

Cualit.

Exper.

Mix.

Rev.

Ens.

Causas

n=46

13 (28,26%)

4 (8,69%)

1 (2,17%)

2 (4,34%)

4 (8,69%)

22 (47,82%)

Consecuencias, impacto

n=57

16 (28,07%)

8 (14,03%)

7 (12,28%)

3 (5,26%)

3 (5,26%)

20 (35,08%)

Definiciones

n=22

1 (4,54%)

0 (0,00%)

0 (0,00%)

1 (4,54%)

2 (9,09%)

18 (81,81%)

Propagación

n=47

31 (65,95%)

3 (6,38%)

6 (12,76%)

3 (6,38%)

2 (4,25%)

2 (4,25%)

Sesgos cognitivos

n=119

25 (21,01%)

0 (0,00%)

78 (65,54%)

3 (2,52%)

6 (5,04%)

7 (5,88%)

Soluciones y estrategias

n=144

25 (17,36%)

15 (10,415%)

36 (25,00%)

7 (4,86%)

13 (9,02%)

48 (33,33%)

General

n=34

1 (2,94%)

1 (2,94%)

0 (0,00%)

0 (0,00%)

6 (17,64%)

26 (76,47%)

Producción

n=84

34 (40,47%)

16 (19,04%)

2 (2,38%)

21 (25,00%)

2 (2,38%)

9 (10,71%)

Percepciones

n=22

9 (40,90%)

2 (9,09%)

4 (18,18%)

5 (22,72%)

1 (4,54%)

1 (4,54%)

Negacionismo

n=5

1 (20,00%)

0 (0,00%)

0 (0,00%)

0 (0,00%)

0 (0,00%)

4 (80,00%)

Papel del periodismo

n=11

1 (9,09%)

6 (54,54%)

0 (0,00%)

1 (9,09%)

0 (0,00%)

3 (27,27%)

Emociones

n=7

1 (14,28%)

0 (0,00%)

1 (14,28%)

1 (14,28%)

1 (14,28%)

3 (42,85%)

Deepfakes

n=5

1 (20,00%)

0 (0,00%)

0 (0,00%)

1 (20,00%)

0 (0,00%)

3 (60,00%)

Ciberseguridad

n=2

0 (0,00%)

0 (0,00%)

0 (0,00%)

0 (0,00%)

0 (0,00%)

2 (100%)

Fuente: elaboración propia

4. Discusión y conclusiones

Este estudio establece una completa cartografía de la agenda temática, los tipos de trabajo, las áreas de conocimiento, los países de procedencia y el impacto de la literatura científica sobre desinformación entre 2016 y 2020, el periodo de mayor atención investigadora hacia este fenómeno hasta la fecha. Las temáticas más frecuentes son (1) aquellas que abordan las soluciones para afrontar esta problemática y (2) los estudios experimentales sobre sesgos psicológicos e ideológicos en los procesos de recepción de los contenidos falsos. En cuanto a las soluciones, una amplia variedad de enfoques protagoniza los estudios en el periodo observado (se ha detectado un total de 12 aspectos diferentes desde los que enfrentar este desafío). El número de estudios que analizan las formas de confrontar las noticias falsas se ha incrementado notablemente desde 2016. Estos resultados muestran la preocupación que este problema suscita, así como la emergencia de la búsqueda de mecanismos para su contención. A la inversa, los estudios sobre sesgos cognitivos, muy prevalentes al inicio, han disminuido progresivamente desde 2016. Este decrecimiento no es obstáculo para colocar al campo de la psicología como una de las áreas desde las que mayor volumen de artículos se publican, confirmando estudios anteriores como el de Ha, Andreu-Pérez y Ray (2019). Estos trabajos desde el ámbito psicológico ofrecen un conocimiento muy valioso para analizar las diferencias en la percepción de los contenidos falsos y la información verídica. La mayoría de estos artículos analizan cómo los sesgos psicológicos e ideológicos se activan cuando los ciudadanos tienden a creer todo aquello que se alinea con su visión del mundo (Elías, 2021). Estos sesgos también actúan en los sujetos a la hora de creer contenidos falsos, incluso después de haber sido desmentidos por los verificadores (Chan et al., 2017). Procesos como el efecto contraproducente de las verificaciones y el razonamiento motivado (crear explicaciones alternativas para hacer compatible la realidad con los sesgos ideológicos) han sido empleados para explicar las resistencias hacia la información verificada (Cook, Lewandowsky y Ecker, 2017; Swire et al., 2017).

Sin embargo, ninguno de estos aspectos –soluciones y sesgos cognitivos– se encuentran entre los más citados. La temática de mayor impacto es la centrada en los patrones de propagación del contenido falso. En este ámbito, el estudio de Vosoughi, Roy y Aral (2018) es el que registra mayor número de citas relativas. Las definiciones de los conceptos clave vinculados con el fenómeno de la desinformación es la segunda categoría temática con mayor impacto. Estas definiciones se suelen abordar con la realización de trabajos ensayísticos, el tipo de artículo más publicado. De estos últimos datos se infiere que la desinformación -en su forma actual- es un objeto de estudio novedoso que aún necesita establecer unos límites conceptuales claros consensuados por una comunidad científica que en el último lustro ha protagonizado incesantes discusiones sobre los anclajes teóricos de este fenómeno.

Tras el campo de la psicología, las ciencias políticas y el análisis de las redes sociales son las disciplinas más salientes en cuanto al número de trabajos publicados. La utilización de estrategias desinformativas en procesos electorales y, en general, con fines políticos y la relevancia de las plataformas digitales en estas estrategias explican estos resultados. El elevado volumen de artículos sobre salud queda justificado por el aluvión de estudios sobre desinformación que la crisis sanitaria de la Covid-19 generó desde marzo de 2020. La diversidad de campos desde los que se ha abordado este fenómeno muestra su carácter multidimensional, que obliga a la colaboración entre expertos de diferentes disciplinas.

Otro aspecto relevante es la alta presencia de trabajos de tipo cuantitativo, sobre todo procedentes del ámbito anglosajón. Sería deseable, no obstante, desarrollar mayor número de investigaciones con metodologías mixtas (muy poco presentes en los estudios analizados), cuyas miradas cualitativas puedan conferir mayor profundidad y detalle a los resultados estadísticos obtenidos con métodos cuantitativos (Jankowski, 2018). Tampoco son especialmente frecuentes los trabajos de revisión de la literatura, a pesar de ser (tras los estudios cuantitativos no experimentales) los de mayor impacto.

Desde el punto de vista geográfico, nuestro estudio confirma el liderazgo de Estados Unidos en el estudio de esta problemática. Trabajos anteriores ya habían señalado la hegemonía de este país en el abordaje científico y académico de los contenidos falsos (Ha, Andreu-Pérez y Ray (2019). En realidad, este liderazgo del país norteamericano es extrapolable a todo el contexto anglosajón (Reino Unido, Canadá y Australia). Asimismo, Estados Unidos concentra los estudios de caso más frecuentes, enfocados en procesos políticos de agenda estadounidense, como las elecciones de 2016, el mandato de Donald Trump y las injerencias de Rusia en la política de aquel país. Este aspecto coincide con los resultados obtenidos por otros estudios, como el de Nieminen y Rapeli (2019).

Por otro lado, los cálculos mediante estadística inferencial determinan que el tipo de trabajo (aproximación metodológica) es la única variable que resulta relevante en su impacto. Ni el tema del estudio, ni el área de conocimiento desde el que se aborda, ni el país de realización de la investigación resultan factores determinantes.

Para finalizar, conviene reseñar algunos de los aspectos relacionados con la desinformación que aún no han recibido suficiente atención y que, por tanto, pueden erigirse como líneas de investigación a explorar para futuras aproximaciones a este fenómeno. En primer lugar, resulta llamativo el déficit de estudios sobre los aspectos jurídicos relacionados con el etiquetado y eliminación de los contenidos falsos y las fuentes desinformativas, tanto en las plataformas digitales como en otros espacios. También sorprende que, frente al predominio de los trabajos realizados desde el ámbito político, la otra gran motivación de la generación de contenidos falsos (las razones económicas) no adquieren la misma relevancia en este tipo de estudios. Sería interesante potenciar el abordaje de aspectos tan relevantes como la black PR –las revisiones y comentarios ficticios de productos y servicios disponibles online (Rodríguez-Fernández, 2021)– y, en general, el uso de la desinformación con fines reputacionales e intereses comerciales. Tampoco ha sido saliente el estudio de la desinformación realizada en formatos sonoros. La creciente audificación del consumo mediático hace especialmente interesante el análisis de los contenidos falsos que circulan mediante notas de voz en servicios de mensajería instantánea como WhatsApp o Telegram (García-Marín, 2021) o en medios como el podcast, en creciente expansión. Asimismo, se prevé que la investigación en otras áreas de emergente desarrollo tecnológico, como las deepfakes, o la utilización del blockchain como arma contra la desinformación (Tapscott y Tapscott 2016; Dickson, 2017) puedan adquirir mayor protagonismo en los próximos años.

5. Agradecimientos

Este artículo ha sido traducido al inglés por Brian O´Halloran.

6. Referencias bibliográficas

Agadjanian, A., Bakhru, N., Chi, V., Greenberg, D., Hollander, B., Hurt, A., & Woodruff, A. (2019). Counting the Pinocchios: The effect of summary fact-checking data on perceived accuracy and favorability of politicians. Research & Politics6(3). https://doi.org/10.1177/2053168019870351

Amazeen, M. A., & Bucy, E. P. (2019). Conferring resistance to digital disinformation: The inoculating influence of procedural news knowledge. Journal of Broadcasting & Electronic Media63(3), 415-432. https://doi.org/10.1080/08838151.2019.1653101

Aparici, R., & Marín, D. G. (2019). La posverdad: una cartografía de los medios, las redes y la política. Editorial Gedisa.

Baade, B. (2018). Fake News and International Law. European Journal of International Law29(4), 1357-1376. https://doi.org/10.1093/ejil/chy071

Bernal-Triviño, A., & Clares-Gavilán, J. (2019). Using mobile devices and social networks as checking channels of fake news. The case of Maldita. es. Profesional de la información28(3), e280312. https://doi.org/10.3145/epi.2019.may.12

Beskow, D. M., & Carley, K. M. (2019). Its all in a name: detecting and labeling bots by their name. Computational and Mathematical Organization Theory25(1), 24-35. https://doi.org/10.1007/s10588-018-09290-1

Bjola, C. (2018). The ethics of countering digital propaganda. Ethics & international affairs32(3), 305-315. https://doi.org/10.1017/S0892679418000436

Bjola, C., & Papadakis, K. (2020). Digital propaganda, counterpublics and the disruption of the public sphere: the Finnish approach to building digital resilience. Cambridge Review of International Affairs33(5), 638-666. https://doi.org/10.1080/09557571.2019.1704221

Bosworth, K. (2019). The people know best: Situating the counterexpertise of populist pipeline opposition movements. Annals of the American Association of Geographers109(2), 581-592. https://doi.org/10.1080/24694452.2018.1494538

Brereton, P., Kitchenham, B.A., Budgen, D., Turner, M., & Khalil, M. (2007). Lessons from applying the systematic literature review process within the software engineering domain. Journal of Systems and Software, 80(4), 571-583. https://doi.org/10.1016/j.jss.2006.07.009

Buckingham, D. (2019). Teaching media in a ‘post-truth’age: fake news, media bias and the challenge for media/digital literacy education/La enseñanza mediática en la era de la posverdad: fake news, sesgo mediático y el reto para la educación en materia de alfabetización mediática y digital. Cultura y Educación31(2), 213-231. https://doi.org/10.1080/11356405.2019.1603814

Carson, A., & Farhall, K. (2018). Understanding collaborative investigative journalism in a “post-truth” age. Journalism Studies19(13), 1899-1911. https://doi.org/10.1080/1461670X.2018.1494515

Castells, M. (2012). Redes de indignación y esperanza. Los movimientos sociales en la era de Internet. Alianza Editorial.

Centre for Reviews and Dissemination. (2009). Systematic Reviews. CRD’s guidance for undertaking reviews in health care. University of York.

Chan, M. P. S., Jones, C. R., Hall Jamieson, K., & Albarracín, D. (2017). Debunking: A meta-analysis of the psychological efficacy of messages countering misinformation. Psychological science28(11), 1531-1546. https://doi.org/10.1177/0956797617714579

Chen, Q., Srivastava, G., Parizi, R. M., Aloqaily, M., & Al Ridhawi, I. (2020). An incentive-aware blockchain-based solution for internet of fake media things. Information Processing & Management57(6). https://doi.org/10.1016/j.ipm.2020.102370

Citron, D.K. (2018). Extremist Speech, Compelled Conformity, and Censorship Creep. Notre Dame Law Review, 93, 1035-1072. https://cutt.ly/wbVP5lP

Codina, L. (2020). Cómo hacer revisiones bibliográficas tradicionales o sistemáticas utilizando bases de datos académicas: estudio de una serie de casos. Revista ORL11(2), 139-153. https://dx.doi.org/10.14201/orl.22977

Cook, J., Lewandowsky, S., & Ecker, U. K. (2017). Neutralizing misinformation through inoculation: Exposing misleading argumentation techniques reduces their influence. PLoS One, 12, e0175799. https://doi.org/10.1371/journal.pone.0175799

Del Vicario, M., Quattrociocchi, W., Scala, A. & Zollo, F. (2019). Polarization and Fake News: Early Warning of Potential Misinformation Targets. ACM Transactions on the Web, 13(2). https://doi.org/10.1145/3316809

Dahlgren, P. (2018). Media, knowledge and trust: The deepening epistemic crisis of democracy. Javnost-The Public, 25(1-2), 20-27. https://doi.org/10.1080/13183222.2018.1418819

Dickson B. (2017). How blockchain helps fight fake news and filter bubbles. The Next Web. Recuperado de: https://bit.ly/2OLsNvq

Elías, C. (2021). El periodismo como herramienta contra las fake news. En Elías, C. & Teira, D. (Eds.), Manual de periodismo y verificación de noticias en la era de las fake (pp. 19-57). UNED.

Endsley, M.R. (2018). Combating Information Attacks in the Age of the Internet: New Challenges for Cognitive Engineering. Human Factors, 60(8), 1081-1094. https://doi.org/10.1177/0018720818807357

Fairbanks, J., Fitch, N., Knauf, N. & Briscoe, E. (2018). Credibility assessment in the news: Do we need to read? Proceedings of the MIS2 Workshop held in conjuction with 11th International Conference on Web Search and Data Mining. https://cutt.ly/hbVHlsx

Fernández-Roldán, A. (2021). El papel de las plataformas digitales en la difusión de contraconocimiento. En Elías, C. & Teira, D. (Eds.), Manual de periodismo y verificación de noticias en la era de las fake (pp. 59-84). UNED.

Fletcher, R., Schifferes, S., & Thurman, N. (2020). Building the ‘Truthmeter’: Training algorithms to help journalists assess the credibility of social media sources. Convergence26(1), 19-34. https://doi.org/10.1177/1354856517714955

García-Marín, D. (2021). El whatsapp de Odiseo. Potencial desinformación y estrategias retóricas del audio fake. En Elías, C. & Teira, D. (Eds.), Manual de periodismo y verificación de noticias en la era de las fake (pp. 99-132). UNED.

Gillmor, D. (2004). We the media: Grassroots Journalism by the people, for the people. O’Reilly Media.

Gómez-Suárez, A. (2017). Peace process pedagogy: lessons from the no-vote victory in the Colombian peace referendum. Comparative Education53(3), 462-482. https://doi.org/10.1080/03050068.2017.1334425

Gorwa, R., Binns, R., & Katzenbach, C. (2020). Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society7(1). https://doi.org/10.1177/2053951719897945

Guess, A. M., Lerner, M., Lyons, B., Montgomery, J. M., Nyhan, B., Reifler, J., & Sircar, N. (2020). A digital media literacy intervention increases discernment between mainstream and false news in the United States and India. Proceedings of the National Academy of Sciences117(27), 15536-15545. https://doi.org/10.1073/pnas.1920498117

Ha, L., Andreu-Pérez, L., & Ray, R. (2019). Mapping recent development in scholarship on fake news and misinformation, 2008 to 2017: Disciplinary contribution, topics, and impact. American behavioral scientist65(2), 290-315. https://doi.org/10.1177/0002764219869402

Haigh, M., Haigh, T., & Kozak, N. I. (2018). Stopping fake news: The work practices of peer-to-peer counter propaganda. Journalism studies19(14). https://doi.org/10.1080/1461670X.2017.1316681

Higdon, N. (2020). The Anatomy of Fake News: A Critical News Literacy Education. University of California Press.

Higgins, J. P., Thomas, J., Chandler, J., Cumpston, M., Li, T., Page, M. J., & Welch, V. A. (2019). Cochrane handbook for systematic reviews of interventions. John Wiley & Sons.

Horne, B.D. & Adali. S. (2017). This just in: fake news packs a lot in title, uses simpler, repetitive content in text body, more similar to satire than real news. Proceedings of the International AAAI Conference on Web and Social Media, 11(1). https://cutt.ly/PbVF9LU

Hughes, G. (2019). Developing student research capability for a ‘post-truth’world: Three challenges for integrating research across taught programmes. Teaching in Higher Education24(3), 394-411. https://doi.org/10.1080/13562517.2018.1541173

Humprecht, E. (2020). How do they debunk “fake news”? A cross-national comparison of transparency in fact checks. Digital Journalism8(3), 310-327. https://doi.org/10.1080/21670811.2019.1691031

Hunt, K., Wang, B., & Zhuang, J. (2020). Misinformation debunking and cross-platform information sharing through Twitter during Hurricanes Harvey and Irma: a case study on shelters and ID checks. Natural Hazards103, 861-883. https://doi.org/10.1007/s11069-020-04016-6

Jankowski, N. W. (2018). Researching fake news: A selective examination of empirical studies. Javnost-The Public25(1-2), 248-255. https://doi.org/10.1080/13183222.2018.1418964

Jenkins, H. (2006). Convergence Culture. La cultura de la convergencia en los medios de comunicación. Paidós.

Kapantai, E., Christopoulou, A., Berberidis, C., & Peristeras, V. (2020). A systematic literature review on disinformation: Toward a unified taxonomical framework. New media & society23(5), 1301-1326. https://doi.org/10.1177/1461444820959296

Khan, M. L., & Idris, I. K. (2019). Recognise misinformation and verify before sharing: a reasoned action and information literacy perspective. Behaviour & Information Technology38(12), 1194-1212. https://doi.org/10.1080/0144929X.2019.1578828

Kim, A., Moravec, L. & Dennis, A.R. (2019). Combating Fake News on Social Media with Source Ratings: The Effects of User and Expert Reputation Ratings. Journal of Management Information Systems, 36(3), 931-968.https://doi.org/10.1080/07421222.2019.1628921

Kitchenham, B. (2004). Procedures for performing systematic reviews. Keele, UK, Keele University33, 1-26. https://cutt.ly/TbV4nRW

Ko, H., Hong, J.Y., Kim, S., Mesicek, L. & Na, I.S. (2019). Human-machine interaction: A case study on fake news detection using a backtracking based on a cognitive system. Cognitive Systems Research, 55, 77-81. https://doi.org/10.1016/j.cogsys.2018.12.018

López-Borrull, A. (2020). Fake news e infodemia científica durante la Covid-19,¿ dos caras de la misma crisis informacional? Anuario ThinkEPI14(1), e14e07. https://doi.org/10.3145/thinkepi.2020.e14e07

López-García, X., Silva-Rodríguez, A., Vizoso-García, Á. A., Westlund, O., & Canavilhas, J. (2019). Periodismo móvil: Revisión sistemática de la producción científica. Comunicar27(59), 9-18. https://doi.org/10.3916/C59-2019-01

Luengo, M., & García-Marín, D. (2020). The performance of truth: politicians, fact-checking journalism, and the struggle to tackle COVID-19 misinformation. American Journal of Cultural Sociology8(3), 405-427. https://doi.org/10.1057/s41290-020-00115-w

Margolin, D.B., Hannak, A. & Weber, I. (2018). Political Fact-Checking on Twitter: When Do Corrections Have an Effect? Political Communication, 35(2), 196-219. https://doi.org/10.1080/10584609.2017.1334018

Meier, K., Kraus, D., & Michaeler, E. (2018). Audience engagement in a post-truth age: What it means and how to learn the activities connected with it. Digital Journalism6(8), 1052-1063. https://doi.org/10.1080/21670811.2018.1498295

Nieminen, S., & Rapeli, L. (2019). Fighting misperceptions and doubting journalists’ objectivity: A review of fact-checking literature. Political Studies Review17(3), 296-309. https://doi.org/10.1177/1478929918786852

Nyhan, B., Porter, E., Reifler, J., & Wood, T. J. (2020). Taking fact-checks literally but not seriously? The effects of journalistic fact-checking on factual beliefs and candidate favorability. Political Behavior42(3), 939-960. https://doi.org/10.1007/s11109-019-09528-x

Pennycook, G. & Rand, D.G. (2019). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences, 116(7), 2521-2526. https://doi.org/10.1073/pnas.1806781116

Perl, A., Howlett, M., & Ramesh, M. (2018). Policy-making and truthiness: Can existing policy models cope with politicized evidence and willful ignorance in a “post-fact” world?. Policy Sciences51(4), 581-600. https://doi.org/10.1007/s11077-018-9334-4

Peter, C., & Koch, T. (2016). When debunking scientific myths fails (and when it does not) The backfire effect in the context of journalistic coverage and immediate judgments as prevention strategy. Science Communication38(1), 3-25. https://doi.org/10.1177/1075547015613523

Pickard, V. (2020). Restructuring democratic infrastructures: A policy approach to the journalism crisis. Digital Journalism8(6), 704-719. https://doi.org/10.1080/21670811.2020.1733433

Pierri, F. & Ceri, S. (2019). False News On Social Media: A Data-Driven Survey. ACM SIGMOD Record, 48(2). https://doi.org/10.1145/3377330.3377334

Popat, K., Mukherjee, S., Yates, A., & Weikum, G. (2018). Declare: Debunking fake news and false claims using evidence-aware deep learning. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 22–32. https://cutt.ly/DbVJnMQ

Potthast, M., Kiesel, J., Reinartz, J., Bevendor, J. & Stein, B. (2018). A stylometric inquiry into hyperpartisan and fake news. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, 1, 231–240. https://cutt.ly/ibVGDy6

Ramírez-Montoya, M.S., & García-Peñalvo, F.J. (2018). Co-creación e innovación abierta: Revisión sistemática de literatura. Comunicar, 26(54), 9-18. https://doi.org/10.3916/C54-2018-01

Riedel, B., Augenstein, I., Spithourakis, G. P., & Riedel, S. (2017). A simple but tough-to-beat baseline for the Fake News Challenge stance detection task. arXiv. https://cutt.ly/PbVJyUi

Rodríguez-Fernández, L. (2021). Propaganda digital: Comunicación en tiempos de desinformación. Editorial UOC.

Rose, D. C. (2018). Avoiding a post-truth world: Embracing post-normal conservation. Conservation and Society16(4), 518-524. https://cutt.ly/2bVXMvZ

Roozenbeek, J., Maertens, R., McClanahan, W., & van der Linden, S. (2020). Disentangling item and testing effects in inoculation research on online misinformation: Solomon revisited. Educational and Psychological Measurement81(2), 340-362. https://doi.org/10.1177/0013164420940378

Roozenbeek, J., & Van Der Linden, S. (2019). The fake news game: actively inoculating against the risk of misinformation. Journal of Risk Research22(5), 570-580. https://doi.org/10.1080/13669877.2018.1443491

Sharon, A. J., & Baram‐Tsabari, A. (2020). Can science literacy help individuals identify misinformation in everyday life?. Science Education104(5), 873-894. https://doi.org/10.1002/sce.21581

Shirky, C. (2010). Cognitive Surplus. How Technology Makes Consumers into Collaborators. Penguin.

Shu, K., Mahudeswaran, D. & Liu, H. (2019). FakeNewsTracker: a tool for fake news collection, detection, and visualization. Computational and Mathematical Organization Theory, 25, 60–71. https://doi.org/10.1007/s10588-018-09280-3

Soe, S.O. (2018). Algorithmic detection of misinformation and disinformation: Gricean perspectives. Journal of Documentation, 74(2), 309-332. https://doi.org/10.1108/JD-05-2017-0075

Swire, B., Berinsky, A. J., Lewandowsky, S., & Ecker, U. K. (2017). Processing political mis-information: Comprehending the Trump phenomenon. Royal Society Open Science, 4(3). https://doi.org/10.1098/rsos.160802

Tacchini, E., Ballarin, G., Della Vedova, M. L., Moret, S., & de Alfaro, L. (2017). Some like it hoax: Automated fake news detection in social networks. arXiv. https://cutt.ly/wbVJVHt

Tandoc, E. C. (2019). The facts of fake news: A research review. Sociology Compass13(9), e12724. https://doi.org/10.1111/soc4.12724

Tapscott D. & Tapscott A. (2016). Blockchain Revolution: How the Technology Behind Bitcoin is Changing Money, Business and the World. Random House, New York

Torabi-Asr, F., & Taboada, M. (2019). Big Data and quality data for fake news and misinformation detection. Big Data & Society6(1). https://doi.org/10.1177/2053951719843310

Volkova, S., Shaffer, K., Jang, J. Y., & Hodas, N. (2017). Separating facts from fiction: Linguistic models to classify suspicious and trusted news posts on Twitter. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, 2, 647-653. https://cutt.ly/DbVKpTG

Vos, T. P., & Thomas, R. J. (2018). The discursive construction of journalistic authority in a post-truth age. Journalism Studies19(13), 2001-2010. https://doi.org/10.1080/1461670X.2018.1492879

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science359(6380), 1146-1151. https://dx.doi.org/10.1126/science.aap9559

Vraga, E. K., & Bode, L. (2017). Using expert sources to correct health misinformation in social media. Science Communication39(5), 621-645. https://doi.org/10.1177/1075547017731776

Vraga, E. K., Bode, L., & Tully, M. (2020). Creating news literacy messages to enhance expert corrections of misinformation on Twitter. Communication Research. https://doi.org/10.1177/0093650219898094

Wang, Y., Ma, F., Jin, Z., Yuan. Y., Xun, G., Jha, K., Su, L. & Gao, J. (2018). EANN: Event adversarial neural networks for multi-modal fake news detection. Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 849-857. https://cutt.ly/vbVFdE8

Walter, N., Brooks, J. J., Saucier, C. J., & Suresh, S. (2020). Evaluating the impact of attempts to correct health misinformation on social media: A meta-analysis. Health Communication, 1-9. https://doi.org/10.1080/10410236.2020.1794553

Wu, L., & Liu, H. (2018). Tracing fake-news footprints: Characterizing social media messages by how they propagate. Proceedings of the eleventh ACM international conference on Web Search and Data Mining, 637-645. https://doi.org/10.1145/3159652.3159677

Wu, Y., Ngai, E. W., Wu, P., & Wu, C. (2020). Fake online reviews: Literature review, synthesis, and directions for future research. Decision Support Systems132, 113280. https://doi.org/10.1016/j.dss.2020.113280

Zhang, C.W.; Gupta, A., Kauten, C., Deokar, A.V. & Qin, X. (2019). Detecting fake news for reducing misinformation risks using analytics approaches. European Journal of Operational Research, 279(3), 1036-1052. https://doi.org/10.1016/j.ejor.2019.06.022

Zollo, F., Bessi, A., Del Vicario, M., Scala, A., Caldarelli, G., Shekhtman, L. & Quattrociocchi, W. (2017). Debunking in a world of tribes. PloS one12(7), e0181821. https://doi.org/10.1371/journal.pone.0181821

Zubiaga, A., Aker, A., Bontcheva, K., Liakata, M. & Procter, M. (2018). Detection and Resolution of Rumours in Social Media: A Survey. ACM Computing Surveys, 51(2). https://doi.org/10.1145/3161603

7. Anexos

Anexo 1. Cartografía de las soluciones analizadas por los estudios revisados

Soluciones y estrategias contra la desinformación (n=144; 23,80%)

1.1. Relacionadas con las plataformas y redes sociales

1.1.1. Detección de desinformación en redes sociales

1.1.2. Corrección de información en redes sociales

1.1.3. Evaluación de la calidad de las fuentes en redes sociales

1.1.3.1. Evaluación colaborativa de las fuentes en redes sociales

1.1.4. Usos apropiados para informar

1.1.5. Censura

1.1.6. Etiquetado en RRSS

1.1.7. Evaluación del impacto de los intentos de corregir información en RRSS

1.1.8. Crowdsourcing para desmontar contenidos falsos

1.1.9. Limitación de la propagación

1.2. Estrategias de comunicación

1.2.1. Comunicación efectiva de la ciencia

1.2.2. Contra-propaganda

1.2.3. Estrategias discursivas contra el negacionismo científico

1.2.4. Comunicación en crisis de reputación por fake news

1.2.5. Estrategias retóricas para debatir

1.2.6. Contrarrestar discursos populistas

1.3. Papel de los medios

1.3.1. Fact-checking

1.3.1.1. Estudios sobre su efectividad

1.3.1.2. Percepciones sobre su efectividad y credibilidad en profesionales y ciudadanía

1.3.1.3. Uso de redes y servicios de mensajería para el fact-checking

1.3.1.4. Transparencia en el fact-checking

1.3.1.5. Efectos sobre la credibilidad de los políticos

1.3.1.6. Estudio comparativo de las verificaciones con humor vs. sin humor

1.3.2. Periodismo de investigación colaborativo

1.3.3. Boundary work (establecimiento de límites y estándares periodísticos)

1.3.4. Mejorar la confianza en el periodismo

1.3.5. Adopción de modelos comunicativos más horizontales con las audiencias (desde los medios tradicionales)

1.4. Políticas contra la desinformación

1.4.1. Regulación de la información

1.5. Soluciones algorítmicas, automatizadas y tecnológicas

1.5.1. Modelos predictivos de producción de fake news

1.5.2. Herramientas de detección y visualización de fake news

1.5.3. Evaluación algorítmica de la credibilidad de las fuentes

1.5.4. Moderación algorítmica de contenido

1.5.5. Uso del Big Data para detectar desinformación

1.5.6. Uso del blockchain

1.5.7. Redes neuronales (Inteligencia Artificial) para detectar fake news

1.5.8. Detección automática de bots

1.6. Educación

1.6.1. Juego educativo sobre fake news (inoculación)

1.6.2. Educación y vacunas

1.6.3. Educación mediática y percepción de veracidad

1.6.4. Educación y pensamiento crítico

1.6.6. Efectividad de la educación mediática e informacional

1.6.7. Educación científica

1.7. Papel de las bibliotecas

1.8. Mejorar la confianza en las instituciones

1.8.1. Transparencia y rigor científico

1.8.2. Confianza en la academia y la universidad

1.9. Papel del arte contra la desinformación

1.10. Implicaciones éticas para luchar contra la desinformación

1.11. Verificación y evaluación de fuentes

1.12. Meta-análisis de las soluciones propuestas


Notas

1Este trabajo está apoyado por la Cátedra Jean Monnet EUDFAKE: EU, disinformation and fake news (Call 2019 – 610538-EPP1-2019-1-ES-EPPJMO-CHAIR) financiada por el programa Erasmus+ de la Comisión Europea y el proyecto “Racionalidad y contraconocimiento. Epistemología de la detección de falsedades en relatos informativos” (RTI2018-097709-B-I00) financiado por el Ministerio de Ciencia, Innovación y Universidades de España.


doxa.comunicación | nº 33, pp. 321-346 | julio-diciembre de 2021

ISSN: 1696-019X / e-ISSN: 2386-3978