SciELO - Scientific Electronic Library Online

 
vol.22 número2Edadismo y desigualdad de género en la profesión periodística. Un desencuentro con las nuevas competencias digitalesEstrategias de posverdad y desinformación en las elecciones presidenciales colombianas 2022 índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista de Comunicación

versión impresa ISSN 1684-0933versión On-line ISSN 2227-1465

Revista de Comunicación vol.22 no.2 Piura set./feb. 2023  Epub 14-Oct-2023

http://dx.doi.org/10.26441/rc22.2-2023-3184 

Artículos de Investigación

Chequeando al fact-checker. Prácticas de verificación política y sesgos partidistas en Newtral (España)

Checking the fact-checker. Political verification practices and partisan biases in Newtral (Spain)

David García-Marín1 

Ana Virginia Rubio-Jordán2 

Guiomar Salvat-Martinrey3 

1. Universidad Rey Juan Carlos (España) Doctor en Sociología por la Universidad Nacional de Educación a Distancia. Profesor e investigador en el Departamento de Periodismo y Comunicación Corporativa de la Universidad Rey Juan Carlos. Coordinador de Desarrollo Institucional y Extensión Universitaria de la Facultad de Ciencias de la Comunicación. Líneas de investigación: nuevas tecnologías y sociedad de la información, desinformación, fact-checking y estudios sobre pódcast. david.garciam@urjc.es

2. Universidad Complutense de Madrid (España) Doctora en Ciencias de la Información. Profesora e investigadora en la Facultad de Documentación de la Universidad Complutense de Madrid. Sus principales líneas de investigación son los medios digitales, las redes sociales y la documentación periodística. anavirub@ucm.es

3. Universidad Rey Juan Carlos (España) Profesora Contratada Doctora del Departamento de Periodismo y Comunicación Corporativa de la Facultad de Comunicación, Vicedecana de Estudiantes y Extensión Universitaria de esta facultad. Imparte docencia en el Grado de Periodismo y en los Máster de Periodismo Internacional y Periodismo Cultural y Nuevas Tendencias. Sus principales líneas de investigación son las nuevas tecnologías y la sociedad de la información, el periodismo y la visualización de datos. guiomar.salvat@urjc.es

Resumen:

El periodismo de verificación o fact-checking se ha erigido en los últimos años en una de las estrategias centrales en la lucha contra la desinformación. Para que estas entidades resulten eficaces y logren la confianza de la ciudadanía, resulta fundamental que realicen su labor bajo principios de neutralidad ideológica, sobre todo cuando tratan de verificar el discurso político. Este trabajo, pionero en el contexto español, pretende analizar las prácticas de verificación y los posibles sesgos partidistas del fact-checking en España a través de un estudio específico aplicado a Newtral, el principal fact-checker especializado en política del país. Mediante análisis de contenido de tipo cuantitativo, se estudiaron las prácticas periodísticas utilizadas en los desmentidos políticos de este verificador desde el inicio de su actividad (octubre 2018-octubre 2022). En una segunda fase, se replicó el mismo estudio aplicado solo a los chequeos del discurso de los principales líderes políticos nacionales. El análisis se realizó mediante estadística inferencial (pruebas de chi cuadrado, estudios correlacionales, test de Kruskal-Wallis y U de Mann-Whitney). No se observan diferencias significativas entre partidos políticos en ninguna de las variables analizadas en las fases de ejecución y resolución de los chequeos ni en la muestra general ni en la específica relativa a los líderes políticos. Sin embargo, se aprecia una mayor atención al discurso de los políticos del Partido Popular, que reciben mayor número de verificados, lo que podría implicar un cierto sesgo de selección.

Palabras clave: desinformación; fact-checking; verificación; sesgos ideológicos; sesgos partidistas; comunicación política; discurso político; noticias falsas; Newtral

Abstract:

In recent years, fact-checking journalism has become one of the dominant strategies to tackle disinformation. For these entities to be effective and gain the trust of citizens, it is essential that they carry out their work under the principles of ideological neutrality, especially when they try to verify political discourse. This paper, groundbreaking in the Spanish context, aims to analyze the verification practices and possible partisan biases of political fact-checking in Spain through a specific study applied to Newtral, the main fact-checker specialized in politics in this country. The political verification practices used by this fact-checker since the beginning of its activity (October 2018-October 2022) were analyzed through quantitative content analysis. In a second phase, the same study was replicated, applied only to the discourse of the main national political leaders. The study used inferential statistics (chi-square hypothesis tests, correlational studies, Kruskal-Wallis test and Mann-Whitney U test). No significant differences were observed between political parties in any of the variables analyzed in the phases of execution and verdict, neither in the general sample nor in the specific sample related to political leaders. However, greater attention is paid to the statements made by politicians belonging to Partido Popular, whose discourse is more checked, which could indicate a certain selection bias.

Keywords: disinformation; fact-checking; verification; ideological bias; partisan bias; political communication; political discourse; fake news; Newtral.

1. Introducción

El desafío de la desinformación presente en la sociedad actual ha tenido múltiples respuestas tanto desde la investigación científica como desde el ámbito profesional. En ambos campos, uno de los aspectos más abordados es el papel que las instituciones periodísticas deben adoptar con el fin de confrontar esta problemática. En este marco, resultan especialmente prevalentes los estudios sobre el periodismo de verificación o fact-checking (Moreno-Gil et al., 2021), prác- tica “basada en la comprobación de datos con herramientas actuales, con la informática y las tecnologías como elementos básicos en su marco de actuación” (Vázquez-Herrero et al., 2019,

p. 3). Si bien la comprobación de las informaciones propias antes de su publicación siempre fue una labor vinculada con el periodismo, las nuevas entidades especializadas en fact-checking presentan un matiz diferencial, ya que tratan de verificar contenidos de terceros después de su publicación. Esta labor resulta crucial cuando la desinformación se refiere a aspectos sensibles o de gran impacto como las emergencias sanitarias o las cuestiones relativas a la acción política, sobre todo en periodos electorales.

Aunque el auge y consolidación del periodismo de verificación es un fenómeno reciente, el origen del fact-checking político -encargado de verificar el discurso de los representantes públicos, tanto los elegidos para asumir cargos de responsabilidad como aquellos con labor de oposición- se remonta a la última década del siglo XX en Estados Unidos, a partir de iniciativas no profesionales vinculadas con las entonces incipientes comunidades online. Uno de los grupos más relevantes, integrado en la plataforma Usenet a principios de los años 90, era alt.folklore.urban, cuyos usuarios se dedicaban a desmontar leyendas urbanas populares de la cultura americana. Dos de los miembros más activos de esa comunidad, Barbara y David Mikkelson, crearon en 1995 snopes.com, una página web inicialmente destinada a la verifi- cación de bulos, falacias, desinformación y rumores. El tráfico de la página se incrementó considerablemente coincidiendo con las elecciones estadounidenses del año 2000 y, sobre todo, por la desinformación que circuló alrededor de los ataques terroristas del 11-S (Aspray y Cortada, 2019). Este acontecimiento provocó que snopes.com pasara de ser un sitio amateur para desmontar bulos y curiosidades a convertirse en la mayor organización de fact-checking del país (Dean, 2017). Su relevancia dentro del panorama político norteamericano se reforzó durante el periodo electoral de 2008 (Walker, 2016). Siguiendo su ejemplo, numerosas inicia- tivas de fact-checking emergieron desde comienzos del siglo XXI en Estados Unidos y a nivel internacional a fin de desmentir los bulos que circulan en los circuitos digitales y verificar el discurso emitido por la clase política. En este marco, se sitúa este trabajo, que pretende estudiar las prácticas de verificación del fact-checking político, así como sus posibles sesgos ideológicos en el contexto español a través del análisis de la actividad de Newtral, el principal verificador del discurso político en este país.

1.1 El fact-checking en España

En el contexto español, Miniver (nacido en 2006) fue el primer proyecto de verificación de hechos (Ufarte-Ruiz y Murcia-Verdú, 2018). Se trataba de una iniciativa del periodista Alfredo Expósito sin relación con ningún grupo mediático. Desde entonces, diferentes entidades de fact-checking han sido fundadas en España, no solo vinculadas a empresas periodísticas sino también de carácter independiente (Vizoso y Vázquez-Herrero, 2019), tales como Maldita (pro- yecto lanzado en 2013) y Newtral, entidad especializada en la verificación del contenido político que comenzó su actividad en 2018. En España, los estudios sobre este tipo de proyectos se han centrado en su papel e impacto en periodos electorales (Magallón-Rosa, 2019; Mazaira-Castro et al., 2019), sus prácticas de verificación (López-Pan y Rodríguez-Rodríguez, 2020), la utiliza- ción de la tecnología en su relación con el ciudadano (Palomo y Sedano-Amundarain, 2018), el uso de las redes sociales en el proceso de difusión de los chequeos (Magallón-Rosa, 2018), la estandarización de sus procesos (García-Vivero y López, 2021), la adopción de nuevos lenguajes para viralizar sus contenidos (García-Marín y Salvat-Martinrey, 2022) y sus desafíos y espacios de mejora (Noain-Sánchez, 2019; Seibt, 2020).

En este contexto, los trabajos de Herrero y Herrera-Damas (2021a) ponen de manifiesto la creciente importancia del papel de los verificadores en el control de los procesos informativos. En este sentido, los fact-checkers se han convertido en un movimiento periodístico de relevancia internacional que ha crecido exponencialmente desde 2018 tanto en el ámbito español como en el latinoamericano. Otros estudios se han centrado en la utilización de medios digitales au- diovisuales como YouTube en los procesos de verificación de noticias falsas a fin de garantizar que los contenidos verificados lleguen a grupos amplios de población (Ramahí-García et al., 2021). La literatura científica evidencia que el uso de esta plataforma por parte de estas enti- dades tiene cierto margen de mejora puesto que “los verificadores españoles parecen no seguir una estrategia de creación de contenido basada en los intereses de su audiencia” (Abuín-Penas, 2023, p. 248).

La difusión de las verificaciones con la misma velocidad de circulación que adquieren las informaciones falsas es uno de los principales retos que tienen estas entidades, además de la habitual subjetividad de muchas de las informaciones a chequear y la falta de acceso a información y datos de carácter restringido que resultan fundamentales para la actividad de verificación (Herrero y Herrera-Damas, 2021b). En la misma línea, se alude al desafío de respaldar “metodológicamente cada chequeo realizado profundizando en la transparencia metodológica que avale el porqué de la selección del contenido, de las fuentes y datos utiliza- dos” (Rodríguez-Pérez, 2020, p. 255). Otros estudios han mostrado que la experiencia de los verificadores es un factor decisivo a la hora de entender los límites entre esta actividad y el activismo político y social (Rodríguez-Pérez et al., 2022). Todos estos desafíos del fact-checking en el contexto español implican la “necesidad de una sólida formación de los periodistas que integren nuevos perfiles” (Ufarte-Ruiz et al., 2018, p. 1).

1.2 Fact-checking político y construcción de hipótesis

La efectividad del fact-checking, sobre todo cuando trata de verificar el discurso político, se fun- damenta en la obligada confianza que el ciudadano debe depositar en su labor de verificación (Zimdars y McLeod, 2020; Sanahuja-Sanahuja y López-Rabadán, 2022). Estudios como el de Valera-Ordaz et al. (2022) evidencian que una baja credibilidad de la institución periodística refuerza el impacto de la desinformación. Para lograr tal confianza, los fact-checkers deben asu- mir una posición neutral y no partidista en las diferentes fases del proceso de verificación que integra el fact-checking político (Graves, 2016): (1) la selección de las declaraciones a comprobar, (2) la ejecución del chequeo a partir de consultas a la fuente emisora o afectada por la afirma- ción, la revisión de documentos y datos oficiales y la consulta a expertos neutrales y (3) la reso- lución del verificado mediante la elección de un veredicto (verdadero, falso, engañoso, etc.) que informa sobre la veracidad de la declaración.

A pesar de su relevancia para la construcción de la credibilidad de estas entidades, apenas existen estudios centrados en los posibles sesgos partidistas e ideológicos de los verificadores del discurso político. Las escasas aproximaciones a este objeto de estudio proceden de Estados Unidos (Ostermeier, 2011; Card et al., 2018) y más recientemente de países como China (Liu y Zhou, 2022) y Colombia (Rodríguez-Pérez et al., 2022). Por ello, este trabajo pretende analizar desde una mirada cuantitativa no solo las prácticas periodísticas propias del fact-checking polí- tico, sino también sus posibles sesgos partidistas en el contexto español. El estudio se centrará exclusivamente en Newtral, cuya elección se justificará en el apartado siguiente.

Como se indicaba anteriormente, el punto de partida del proceso de comprobación de declara- ciones políticas se encuadra en la selección de la afirmación a chequear. Estudios previos como el de Palau-Sampio (2018) han mostrado que la verificación del discurso público se centra, sobre todo, en temáticas de tipo político y económico que pueden ser “comprobadas de forma objetiva” (Graves, 2016, p. 92).

Asimismo, las declaraciones chequeadas deben basarse en hechos verificables (Amazeen, 2013), “nunca opiniones” (Graves, 2016, p. 91), de modo que el tipo de declaración elegida debe estar desprovista de juicios de valor, aspectos morales o proyecciones de futuro difícilmente demos- trables. El trabajo de Liu y Zhou (2022) comprobó que la mayoría del discurso verificado en China y Estados Unidos se centra en declaraciones de tipo estadístico y comparativo (afirmacio- nes cuantitativas que se pueden validar objetivamente), frente a una menor cantidad de datos históricos y, sobre todo, opiniones.

Aunque la literatura científica ha prestado mayor atención al impacto del fact-checking político en la ciudadanía (Nieminen y Rapeli, 2019), trabajos como el de Nyhan y Reifler (2015), cen- trados en el efecto que esta práctica tiene sobre la clase política, determinan que cuando los políticos son conscientes de que van a ser chequeados tienden a producir discursos más veraces. Podríamos inferir, por tanto, que se verifica de forma más frecuente el discurso de aquellos políticos sin responsabilidad de gobierno, puesto que podrían ser los más proclives a producir contenido desinformativo al ser quienes menos tienen que perder en caso de recibir verifica- ciones negativas.

Una vez elegidas las declaraciones a comprobar, los fact-checkers activan la fase de ejecución, donde la consulta a fuentes documentales y datos oficiales es el principal recurso utilizado, de acuerdo con los estudios de, entre otros, Aguado-Guadalupe y Bernaola-Serrano (2020), Damasceno y Patricio (2020), Vélez-Bermello (2020) y Liu y Zhou (2022).

En las fases de selección y ejecución, resulta clave la estandarización de las prácticas indepen- dientemente de la fuente de la declaración a chequear, a fin de garantizar la neutralidad del proceso (Aspray y Cortada, 2019). Si tales prácticas fueran diferentes entre partidos o líderes políticos de modo que el proceso fuera más severo o exhaustivo a la hora de verificar el discur- so de unos partidos frente a otros, el fact-checker asumiría una posición claramente partidista y se convertiría en un “instrumento político” (Graves, 2016, p. 103). A estas labores se suma el enfoque del verificado y la forma de titular la pieza resultante, que también podrían dar lugar a ciertos sesgos partidistas o ideológicos (Uscinski y Butler, 2013; Uscinski, 2015).

El proceso de chequeo concluye cuando los verificadores emiten una calificación o veredicto sobre la veracidad de la declaración (fase de resolución). Aunque las entidades estadounidenses etiquetan las afirmaciones de los republicanos mucho más a menudo como falsas (Ostermeier, 2011; Farnsworth y Lichter, 2016; Card et al., 2018), por lo que han sido acusadas de poseer cierto sesgo progresista (Smith, 2012; Dimock et al., 2013), estudios en otros contextos no han encontrado sesgos partidistas con respecto a la resolución de los verificados (Baptista et al., 2022; Rodríguez-Pérez et al., 2022).

De acuerdo con todo este bagaje teórico, este trabajo plantea las siguientes hipótesis:

  • -H1. Además de las cuestiones políticas, los temas económicos son los más prevalentes en el discurso político verificado.

  • -H2. La mayoría de los desmentidos de tipo político consisten en declaraciones basadas en es- tadísticas y afirmaciones comparativas de tipo cuantitativo.

  • -H3. Se realiza mayor porcentaje de verificaciones a aquellos políticos sin responsabilidad de gobierno.

Nótese que estas tres primeras hipótesis están vinculadas con la primera fase del proceso de verificación (dimensión selectiva).

  • -H4. Los desmentidos en el fact-checking político suelen basarse en evidencias obtenidas de documentos y datos oficiales en mayor medida que la consulta a expertos en las materias veri- ficadas.

  • -H5. Dado que Newtral es miembro signatario de los principios de neutralidad y transparencia de la International Fact-Checking Network (IFCN), podría afirmarse que no hay diferencias significativas en las prácticas de fact-checking adoptadas por este verificador entre partidos polí- ticos. Estas prácticas incluyen las temáticas elegidas, el tipo de declaración seleccionada, el tipo de evidencias utilizadas, el número de evidencias diferentes empleadas y la cantidad total de fuentes consultadas.

  • -H6. No hay diferencias estadísticamente significativas en el veredicto de los chequeos entre partidos políticos.

2. Objetivos, materiales y método

En conexión con las hipótesis anteriormente mencionadas, este trabajo plantea los siguientes objetivos:

-O1: Analizar cuantitativamente el fact-checking político realizado en España en las dimensio- nes de selección (temas, tipo de declaraciones y partido político elegido para la verificación), ejecución (evidencias, número de fuentes y tipo de fuentes expertas utilizadas) y resolución (veredicto). Este objetivo integra las hipótesis H1, H2, H3 y H4.

-O2: Determinar la existencia de diferencias significativas en los chequeos a los diferentes par- tidos políticos que puedan implicar sesgos partidistas o ideológicos en la labor de verificación. Las hipótesis H5 y H6 están relacionadas con este segundo objetivo.

2.1 Justificación del caso

Para alcanzar estos fines, se diseñó una investigación mediante análisis de contenido cuantitativo con estadística descriptiva e inferencial aplicado a Newtral, el principal verificador del discurso político de España. La elección de un único verificador para la realización del trabajo de campo se basa en varios criterios. Por un lado, Newtral es el fact-checker español con mayor especializa- ción en verificación de contenido político y, por ello, ha sido seleccionado como estudio de caso en numerosos trabajos (García-Vivero y López, 2021; Aguado-Guadalupe y Bernaola-Serrano, 2020; García-Marín y Salvat-Martinrey, 2022). En su página web integra una sección específica (https://bit.ly/3WBreP6) dedicada a los chequeos realizados a la clase política nacional, organiza- dos de una forma estructurada que permite la recogida de datos de un modo sencillo, a diferencia del otro verificador de referencia español, Maldita, que presenta los chequeos a los políticos dis- tribuidos en diferentes secciones (no dispone, por tanto, de un espacio que agrupe los verificados de esta temática, lo que dificulta el acceso a las unidades de análisis).

Asimismo, resulta problemático integrar en una muestra única los desmentidos de entidades diferentes que utilizan distintas escalas para establecer la veracidad de las declaraciones che- queadas (Rodríguez-Pérez, 2021). Mientras que Newtral recurre a un modelo con cuatro valores (falso, engañoso, verdad a medias y verdad), Maldita mantiene diferentes escalas en función del tipo de chequeo realizado. En su sección Maldito bulo, esta entidad solo emplea dos categorías (bulo y no hay pruebas), mientras que en Maldito dato los niveles son tres (falso, falso pero… y verdadero pero…) y, a diferencia de Newtral, no otorga la calificación de “verdadera” a ningu- na declaración. Esta falta de homogeneidad en la resolución de las verificaciones desaconseja la integración de contenidos procedentes de diferentes fact-checkers y justifica la elección de un único caso para el estudio.

2.2 Muestra

En el inicio del trabajo de campo, Newtral integraba un total de 874 verificados políticos en su página web. Para seleccionar una muestra estadísticamente significativa, se utilizó un muestreo aleatorio sistemático con un nivel de confianza del 95% y un margen de error del 5%. La muestra final analizada fue de 268 chequeos (ver muestra completa en https://bit.ly/3E4D6Su) que abarcan los cuatro primeros años de actividad del verificador, desde el 09/10/2018 hasta el 04/10/2022. Este tamaño muestral es similar al de trabajos previos sobre las prácticas profesionales de los fact-checkers en China (Liu y Zhou, 2022). En la misma línea, los trabajos de, entre otros, Li et al. (2021), Chen et al. (2021), García-Marín y Salvat-Martinrey (2022) y Rodríguez-Pérez et al. (2022), basados en el análisis cuantitativo del contenido verificado, han utilizado tamaños muestrales próximos al de este estudio.

Al disponer del listado completo de verificados realizados por Newtral (universo), se seleccionó cada uno de los verificados que compondrían la muestra mediante la aplicación de un intervalo (k) tras la división del número de verificados (N=874) entre el valor de la muestra (n=268), resultando un valor k de 3,26. Esta cifra se redondeó a 3 a fin de seleccionar un verificado cada intervalo de 3, eligiendo el primero a analizar al alzar entre los verificados 1-3 del universo.

2.3 Instrumento

La técnica de investigación utilizada fue el análisis de contenido de tipo cuantitativo. Para ello, se diseñó un libro de códigos que recoge todas las variables del trabajo y su desglose en cate- gorías (Tabla 1). Se agrupan las variables en las dimensiones o fases del fact-checking político anteriormente descritas. En la dimensión o fase selectiva, se integran las variables “tema”, “tipo de declaración”, “partido político” y “responsabilidad de gobierno”. En la fase de ejecución, se incluyen: “tipo de evidencia utilizada”, “número de evidencias diferentes”, “tipo de fuentes expertas consultadas” y “número total de fuentes”. Finalmente, en la fase de resolución se tie- ne en cuenta el veredicto de acuerdo con la escala utilizada por Newtral. La variable temática (correspondiente a la fase selectiva) incluye una categoría denominada “política” que puede resultar confusa dado que toda la muestra se relaciona con declaraciones emitidas por los polí- ticos españoles. Esta categoría incluye todas las afirmaciones sobre estrategia política, ideología, procesos electorales y funcionamiento de los partidos. No se considera necesario definir expre- samente el resto de las categorías de esta variable (economía, salud, social, energía, educación, etc.) dado que resultan claras e inequívocas.

Tabla 1 Libro de códigos 

Dimensión Variable Categorías
Selección Tema Economía
Política
Salud
Social
Judicial
Energía
Educación
Inmigración / raza
Medio ambiente
Género
Ciencia / tecnología
Otros
Tipo de declaración Estadísticas / comparaciones
Opiniones
Datos históricos
Legalidad
Proyecciones futuras
Vida personal
Partido político Se obtiene de la web del verificador.
Responsabilidad de gobierno Sí. En caso de que el político tuviera responsabilidad de gobierno en el momento del chequeo.
No. En caso de que el político no tuviera responsabilidad de gobierno en el momento del chequeo.
Ejecución Evidencia Documentos / datos oficiales
Fuente emisora de la declaración o mencionada en ella
Expertos
Fuente emisora o mencionada + fuentes documentales
Fuentes documentales + expertos
Fuente emisora o mencionada + fuentes documentales + expertos
Nº de evidencias diferentes Variable cuantitativa
Tipo de fuentes expertas Profesionales
Mediáticas
Ambas
Número de fuentes Variable cuantitativa
Resolución Veredicto Falso
Engañoso
Verdad a medias
Verdad (Ver significado de cada categoría en: https://bit.ly/3UrH0Kj)

Fuente: elaboración propia.

En una segunda fase del estudio, y como complemento a la investigación con la muestra gene- ral, se aplicó el mismo instrumento a una muestra específica de chequeos a los líderes políticos de los cinco partidos más votados -y con más verificados- en el periodo estudiado. En esta fase, se analizaron los desmentidos a Pedro Sánchez (PSOE), Pablo Casado y Alberto Núñez Feijóo (PP), Santiago Abascal (Vox), Pablo Iglesias e Ione Belarra (Podemos) y Albert Rivera e Inés Arrimadas (Ciudadanos). En el caso de los líderes políticos, se estudiaron todos los che- queos realizados por el verificador desde el comienzo de su actividad (n=248). El objetivo de esta fase complementaria era corroborar la inexistencia de sesgos partidistas e ideológicos en la ejecución de los verificados cuando se toma como referencia el discurso de los líderes políticos con mayor proyección pública del país.

2.4 Análisis de los datos

La muestra fue analizada por un único codificador, dado que prácticamente todas las variables no implican un elevado grado de interpretación y resultan fácilmente objetivables. El tratamien- to de datos se realizó mediante estadística descriptiva e inferencial. En primer lugar, se ejecutó el test de Kolmogorov-Smirnov con corrección de significación de Lilliefors para determinar la normalidad de la distribución de valores en la muestra, a fin de decidir la realización de prue- bas paramétricas o no paramétricas. El test determinó la ausencia de normalidad (p<.001), por lo que se utilizaron pruebas de contraste de hipótesis no paramétricas (Kruskal-Wallis para las variables no dicotómicas y U de Mann-Whitney para las dicotómicas) y coeficiente de Spearman para los estudios correlacionales. En el estudio mediante tablas de contingencia bivariadas se utilizó la prueba de chi cuadrado para determinar diferencias significativas entre las categorías de las variables. El análisis de datos fue realizado con el programa SPSS v.27.

3. Resultados

3.1 Temas, tipo de declaraciones y evidencias

Las declaraciones más chequeadas se corresponden con temas económicos (38,80%), segui- das de las que hacen referencia a cuestiones políticas (17,16%), sanitarias (13,80%) y sociales (12,68%) (Tabla 2). La mayor frecuencia de las temáticas de raíz económica valida la H1. Las cuatro categorías temáticas mencionadas acumulan el 82,44% de las declaraciones emitidas por los políticos verificados. También queda confirmada la H2, relativa a la prevalencia de las afirmaciones basadas en datos estadísticos o comparaciones, ya que una amplísima mayoría del contenido chequeado (58,95%) se fundamenta en declaraciones de este tipo. La comprobación de opiniones constituye, a mucha distancia, la segunda categoría más frecuente en la variable “tipo de declaración” (20,52%).

Un aspecto destacable de los resultados obtenidos es el elevado porcentaje de chequeos que recibe el Partido Popular (36,94%), 15,30 puntos superior al del otro principal partido del país (el PSOE, que acumula el 21,64%). Esta mayor atención de Newtral hacia el discurso del principal partido de la oposición a nivel nacional se refrenda con los datos de verificación a los líderes políticos presentados en el apartado 3.3., donde Pablo Casado acumula el 40,72% de las comprobaciones. En la misma línea, el verificador selecciona mayor número de afirmaciones procedentes de los políticos sin responsabilidad de gobierno en el momento de emitir la decla- ración chequeada (58,95% frente a 41,04%), resultado que valida la H3.

El tipo de evidencia más utilizado en las prácticas de fact-checking político en Newtral es la revi- sión exclusiva de documentos y datos oficiales (36,56%). El segundo modelo de evidencia es la consulta a la fuente emisora de la declaración o fuente aludida, en combinación con el estudio de documentos o datos oficiales (26,11%). En prácticamente todos los chequeos (98,50%) se re- curre a fuentes documentales. La consulta a expertos en las materias verificadas está presente en el 36,19% de las piezas. Este dominio de las fuentes documentales y los datos oficiales frente a la consulta a expertos nos lleva a corroborar la H4. En el 24,25% de los chequeos se recurre a fuentes expertas profesionales, mientras que el 5,97% del contenido verificado se realiza a través de fuentes expertas mediáticas. Las verificaciones basadas en la suma de ambos tipos de fuentes expertas (profesionales y mediáticas) registran el mismo porcentaje (5,97%). Como promedio, se utilizan 1,75 evidencias distintas y el número medio de fuentes consultadas en los chequeos es de 7,14.

Resultan ampliamente mayoritarias las afirmaciones donde el político incorpora algún grado de falsedad. La suma de contenidos engañosos y falsos alcanza el 87,31%. Tan solo 6 afirmacio- nes (2,23%) resultaron ser verdaderas a juicio del fact-checker.

Tabla 2 Estadísticos descriptivos muestra general 

Tema (n > 5)
n Fr
Economía 104 38,80%
Política 46 17,16%
Salud 37 13,80%
Social 34 12,68%
Judicial 13 4,85%
Energía 9 3,35%
Educación 7 2,61%
Tipo de declaración
n Fr
Estadísticas / comparaciones 158 58,95%
Opiniones 55 20,52%
Datos históricos 40 14,92%
Legalidad 11 4,10%
Proyecciones futuras 2 0,74%
Vida personal 1 0,37%
Partido político (n > 10)
n Fr
PP 99 36,94%
PSOE 58 21,64%
Vox 33 12,31%
Podemos 29 10,82%
Ciudadanos 17 6,34%
Junts per Catalunya 12 4,47%
ERC 12 4,47%
Responsabilidad de gobierno
n Fr
110 41,04%
No 158 58,95%
Evidencias
n Fr
Documentos / datos oficiales 98 36,56%
Fuente emisora o mencionada + fuentes documentales 70 26,11%
Fuentes documentales + expertos 59 22,01%
Fuente emisora o mencionada + fuentes documentales + expertos 37 13,80%
Fuente emisora o mencionada 3 1,11%
Expertos 1 0,37%
Veredicto
n Fr
Falso 120 44,77%
Engañoso 114 42,53%
Verdad a medias 28 10,44%
Verdad 6 2,23%

Fuente: elaboración propia.

A fin de alcanzar mayor precisión en los datos sobre las características de los chequeos, se realizó un estudio correlacional de las variables medidas en el trabajo (Tabla 3). Para ello, se construyeron dos variables dummy (o ficticias) dicotómicas a partir de las variables gene- rales “tema” y “tipo de declaración”. Se recodificó la primera nueva variable, denominada “tema económico”, asignando el valor 1 a los verificados con temática económica y el 0 al resto de chequeos. Se tomó como referencia la temática económica por ser la categoría más prevalente de su variable. Se llevó a cabo la misma operación para crear la segunda nueva variable, denominada “declaración estadística” (afirmaciones de tipo estadístico: 1; resto de afirmaciones: 0). De este modo, las variables analizadas en el estudio correlacional fueron: (1) responsabilidad de gobierno (No: 0; Sí: 1), (2) número de evidencias distintas (cuantitativa), (3) número de fuentes (cuantitativa), (4) veredicto (Verdad: 1; Verdad a me- dias: 2; Engañoso: 3; Falso: 4), (5) tema económico (No: 0; Sí: 1), (6) declaración estadística (No: 0; Sí: 1) y (7) número de fuentes expertas (cuantitativo).

En primer lugar, se observa una asociación significativa entre el tipo de declaración estadís- tica y el número de evidencias diferentes utilizadas para su comprobación: las declaraciones basadas en estadísticas y/o comparaciones se verifican con menor número de evidencias distintas; es decir, el fact-checker triangula menor cantidad de evidencias de diferente na- turaleza para su verificación (se usan, sobre todo, fuentes documentales y datos oficiales). Los datos históricos se comprueban con un número significativamente mayor de evidencias diferentes (además de recurrir a las fuentes documentales, se consulta a expertos y/o a las fuentes implicadas en la afirmación a verificar). Por otro lado, las afirmaciones de tipo económico tienden a estar basadas en declaraciones de carácter estadístico/comparativo. Finalmente, aunque el grado de asociación se queda próximo a la significación estadística (p=.070), los resultados observan una cierta relación entre el número de fuentes consul- tadas y el veredicto del chequeo: a mayor cantidad de fuentes utilizadas, mayor grado de falsedad determina el fact-checker.

Tabla 3 Matriz de correlaciones de la muestra general 

Resp. gobierno Nº de evidencias Nº de fuentes Veredicto Tema econ. Declaración estadística Nº expertos
Resp. gobierno .022 (p=.724) .105 (p=.090) .037 (.548) -.029 (p=.639) .113 (p=.065) .027 (p=.661)
Nº de evidencias .450 (p<.001)** .109 (p=.075) -.039 (p=.522) -.165 (p=.007)* .602 (p<.001)**
Nº de fuentes .112 (p=.070) -.077 (p=.215) -.103 (p=.096) .420 (p<.001)**
Veredicto -.019 (p=.763) .001 (p=.987) .080 (p=.192)
Tema econ. .260 (p<.001)** .076 (p=.214)
Declaración estadística .004 (p=.947)
Nº expertos

*Diferencias significativas cuando p < .01.

**Diferencias muy significativas cuando p < .001.

Fuente: elaboración propia.

3.2 Comparativa entre partidos

Para confirmar la H5, se ejecutó un análisis por tablas de contingencia bivariadas con prueba de contraste de chi cuadrado (Tabla 4). En primer lugar, las temáticas seleccionadas por partidos políticos no presentan diferencias estadísticamente relevantes [X2(130, N = 268) = 99.557, p =

.978]. Tampoco existen diferencias relevantes en el tipo de declaración verificada por formaciones políticas [X2(78, N = 268) = 57.931, p = .957]. En todos los partidos, las declaraciones de tipo estadístico son claramente mayoritarias. No se perciben desviaciones relevantes en el tipo de evidencias utilizadas para comprobar las declaraciones de las distintas formaciones políticas [X2(65, N = 268) = 53.572, p = .843]. Tampoco existen diferencias entre partidos en el número de evidencias empleadas para realizar los chequeos [H(13) = 19.882, p = .098] ni en la cantidad total de fuentes consultadas [H(13) = 10.449, p = .657]. Al corroborar la ausencia de diferencias notables en las prácticas de fact-checking entre formaciones políticas, la H5 queda totalmente confirmada.

Asimismo, el resultado de los veredictos no presenta tampoco desviaciones estadísticamente nota- bles [X2(39, N = 268) = 47.563, p = .163], si bien se percibe que los partidos mayoritarios del blo- que de derechas reciben un número ligeramente mayor de veredictos negativos (suma de falsos y engañosos). El resultado de la prueba de contraste de hipótesis nos lleva a confirmar también la H6.

Tabla 4 Cruce de variables por partidos políticos (los 5 más votados en 2018-2022)* 

Temas (n > 5)
PSOE PP Vox Podemos Cs
Economía 22 (37,93%) 44 (44,44%) 10 (30,30% 8 (27,58%) 7 (41,17%)
Política 12 (20,68%) 14 (14,14%) 4 (12,12%) 3 (10,34%) 5 (29,41%)
Salud 11 (18,96%) 19 (19,19%) 3 (9,09%) 3 (10,34%) 0 (0%)
Social 7 (12,06%) 6 (6,06%) 6 (18,18%) 7 (24,13%) 2 (11,76%)
Judicial 1 (1,72%) 5 (5,05%) 1 (3,03%) 5 (17,24%) 1 (5,88%)
Energía 0 (0%) 4 (4,04%) 2 (6,06%) 2 (6,89%) 1 (5,88%)
Educación 2 (3,44%) 2 (2,02%) 0 (0%) 1 (3,44%) 0 (0%)
X2: gl = 130, valor = 99.557, p = .978, razón de verosimilitud = 96.787, N = 268
Tipo de declaración
PSOE PP Vox Podemos Cs
Estadísticas / comparaciones 37 (63,79%) 60 (60,60%) 16 (48,48%) 15 (51,72%) 10 (58,82%)
Opiniones 10 (17,24%) 14 (14,14%) 12 (36,36%) 9 (31,03%) 5 (29,41%)
Datos históricos 11 (18,96%) 20 (20,20%) 1 (3,03%) 2 (6,895) 1 (5,88%)
Legalidad 0 (0%) 3 (3,03%) 3 (9,09%) 3 (10,34%) 0 (0%)
Proyecciones futuras 0 (0%) 1 (1,01%) 0 (0%) 0 (0%) 1 (5,88%)
Vida personal 0 (0%) 1 (1,01%) 0 (0%) 0 (0%) 0 (0%)
X2: gl = 78, valor = 57.931, p = .957, razón de verosimilitud = 54.836, N = 268
Número de evidencias (Número de fuentes consultadas)
PSOE PP Vox Podemos Cs
Promedio 1,69 (7,68) 1,72 (6,64) 1,70 (7,70) 2,03 (7,25) 1,59 (6,19)
Desviación típica 0,730 (5,46) 0,686 (4,65) 0,637 (7,99) 0,566 (6,34) 0,618 (3,90)
Kruskal-Wallis número estrategias: gl = 13, valor = 19.882, p = .098, N = 268
Kruskal-Wallis número fuentes consultadas: gl = 13, valor = 10.449, p = .657, N = 264
Evidencias
PSOE PP Vox Podemos Cs
Documentos / datos oficiales 27 (46,55%) 38 (38,38%) 13 (39,39%) 3 (10,34%) 8 (47,05%)
Fuente emisora o mencionada + fuentes documentales 14 (24,13%) 22 (22,22%) 6 (18,18%) 15 (51,72%) 4 (23,52%)
Fuentes documentales + expertos 8 (13,79%) 23 (23,23%) 11 (33,33%) 5 (17,24%) 4 (23,53%)
Fuente emisora o mencionada + fuentes documentales + expertos 9 (15,51%) 13 (13,13%) 3 (9,09%) 5 (17,24%) 1 (5,88%)
Fuente emisora o mencionada 0 (0%) 2 (2,02%) 0 (0%) 1 (3,44%) 0 (0%)
Expertos 0 (0%) 1 (1,01%) 0 (0%) 0 (0%) 0 (0%)
X2: gl = 65, valor = 53.572, p = .843, razón de verosimilitud = 53.435, N = 268
Veredicto
PSOE PP Vox Podemos Cs
Falso 25 (43,10%) 55 (55,55%) 14 (42,42%) 8 (27,58%) 6 (35,29%)
Engañoso 25 (43,10%) 35 (35,35%) 16 (48,48%) 12 (41,37%) 9 (52,94%)
Verdad a medias 6 (10,34%) 7 (7,07%) 3 (9,09) 7 (24,13%) 2 (11,76%)
Verdad 2 (3,44%) 2 (2,02%) 0 (0%) 2 (6,89%) 0 (0%)
X2: gl = 39, valor = 47.563, p = .163, razón de verosimilitud = 42.304, N = 268

* Los porcentajes se calculan sobre el total del partido político.

Fuente: elaboración propia.

3.3 Fact-checking a los líderes políticos

El análisis de los chequeos a los líderes políticos (n=248) arroja varios resultados relevantes. En primer lugar, tal como recoge el apartado 3.1., se observa una mayor atención hacia las declaraciones de líderes del PP, que representan el 46,77% de la muestra específica, sobre todo las realizadas por Pablo Casado, que aglutina el 40,72% de los verificados a los líderes políticos. También es llamativo que los líderes reciben mayor número de “falsos” (56,50%) que la clase política general (44,77%), pero menor número de “engañosos” (28,20% frente a 42,53%), si bien la suma de falsos y engañosos resulta ciertamente equilibrada entre la mues- tra general y la relativa a los líderes políticos (87,30% la muestra general frente al 84,70% de los líderes).

El análisis del sentido de los veredictos tomando como referencia el discurso verificado de los líderes no determina diferencias notables ni por partidos políticos [X2(12, N = 248) = 14.368, p = .278], ni por ideologías [X2(3, N = 248) = 6.398, p = .094]. Solo se perciben desviaciones muy significativas en los temas elegidos por partido político (p<.001) y significativas en el tipo de declaración seleccionada por formación política (p=.022). Ninguna variable relativa a la ejecución y resolución de los chequeos registra diferencias notables por ideología. Estos datos vuelven a corroborar las H5 y H6. Obsérvese que la agrupación de los partidos políticos por ideología se basó en el eje izquierda-derecha determinado por la valoración ciudadana sobre la posición ideológica de los líderes políticos de acuerdo con el Centro de Investigaciones Sociológicas de España (https://bit.ly/3sYJapj).

Todos los resultados del estudio de los chequeos por partido político e ideología a partir de los verificados a los líderes están disponibles en https://bit.ly/3TctWrt.

4. Discusión y conclusiones

Los resultados del estudio validan todas las hipótesis planteadas. En primer lugar, las declara- ciones más chequeadas son aquellas que contienen temas económicos y políticos. Estos resul- tados coinciden parcialmente con estudios previos realizados sobre el fact-checking en España desde una perspectiva general (no centrada exclusivamente en la verificación política). En este sentido, los trabajos de Blanco-Alfonso et al. (2021) y Bernal-Triviño y Clares-Gavilán (2019) determinan que la temática política es la más prevalente en los bulos desmentidos en el ámbito español, aunque no las cuestiones económicas.

La mayor parte de las declaraciones están basadas en estadísticas o comparaciones, lo que confirma los resultados obtenidos por Liu y Zhou (2022) en el contexto chino. Se puede afirmar, por tanto, que Newtral, en sus prácticas de fact-checking político, selecciona ge- neralmente afirmaciones verificables de acuerdo con la literatura científica (Makkonen y Wiberg, 2017; Nieminen et al., 2017), habitualmente alejadas de opiniones, proyecciones de futuro, declaraciones ambiguas, tautologías o afirmaciones basadas en valores morales, éticos o referidas a experiencias personales. Sin embargo, resulta problemático el número de chequeos basados en opiniones difícilmente verificables (20,52%), lo que indica un cierto margen de mejora en la fase de selección de las afirmaciones. Este dato confirma estudios previos realizados en el contexto estadounidense (Nieminen y Sankari, 2021). En todo caso, aunque la veracidad de una opinión puede ser difícil de demostrar, “la información que so- bre ella ofrecen los verificadores resulta significativa en términos periodísticos” (Nieminen y Sankari, 2021, p. 374).

Se observa un predominio absoluto del uso de fuentes documentales y datos oficiales en la fase de ejecución de las verificaciones. Sin embargo, trabajos como el de Sanahuja-Sanahuja y López-Rabadán (2022), realizados sobre chequeos de diversas temáticas además de la política, arrojan resultados contrarios, lo que podría deberse a que en el fact-checking político se consul- tan fuentes diferentes y, por tanto, se emplean prácticas de verificación distintas a las utilizadas en la comprobación de bulos o contenidos desinformativos que circulan en las redes sociales. Futuros trabajos podrían aclarar esta cuestión.

La investigación realizada sobre toda la clase política no observa diferencias significativas en el proceso de comprobación por partidos en las fases de ejecución y resolución. Estos datos, coincidentes con los de Rodríguez-Pérez et al. (2022) sobre el fact-checking político en Colom- bia y los de Baptista et al. (2022) en Portugal, contrastan con los obtenidos por Farnsworth y Lichter (2016) y Card et al. (2018), quienes observaron la existencia de cierto sesgo progre- sista en los verificadores estadounidenses a la hora de determinar la veracidad de las afirma- ciones emitidas por los políticos republicanos y demócratas. En el mismo sentido, el trabajo de Ostermeier (2011) evidenció que el discurso de los políticos conservadores es calificado como falso en el triple de ocasiones que el de los progresistas. Este aspecto influye en la escasa valoración que los republicanos tienen sobre las entidades de fact-checking en Estados Unidos, que manifiestan una menor confianza en estos proyectos periodísticos que los demócratas (Shin y Thorson, 2017). Los resultados de nuestra investigación son totalmente opuestos, ya que muestran la inexistencia de diferencias estadísticamente significativas en el número de veredictos negativos por partido político. Asimismo, el estudio practicado sobre el discurso de los principales líderes arroja resultados similares en cuanto a la ausencia de sesgos partidistas e ideológicos en las mismas fases del proceso de verificación (ejecución y resolución), incluido el veredicto sobre la veracidad de las declaraciones. Este resultado contradice el posiciona- miento de políticos conservadores españoles que, al igual que en el caso estadounidense, en los últimos años han acusado a los verificadores de servir a intereses partidistas y presentar sesgos ideológicos que favorecen a las formaciones de izquierda (Gestoso, 2020).

No obstante, nuestro estudio evidencia una mayor atención de Newtral hacia el discurso de los parti- dos conservadores (fase selectiva), lo que podría indicar un cierto sesgo de selección. Esta tendencia es más acusada en el caso del Partido Popular, especialmente hacia su anterior presidente, Pablo Casado, que recibe casi la mitad de los desmentidos de la muestra correspondiente a los principales líderes. Un sesgo de selección hacia el discurso de una determinada figura política resultaría clara- mente perjudicial en una época como la actual, caracterizada por una creciente personalización de la política (Quinlan y McAllister, 2022; Ferré-Pavia y Codina, 2022), “marcada por la centralidad del líder en los procesos de comunicación” (Donofrio, 2022, p. 82) y por la extensión de su imagen y valores a las siglas. Futuros trabajos deberán determinar si el mayor número de comprobaciones sobre este partido responde a un sesgo de selección real del verificador, a una mayor tendencia fake en el discurso de esta formación política, o a una mayor predisposición a emitir declaraciones veri- ficables (basadas en estadísticas y comparaciones) por parte de sus miembros.

Apoyos

Este trabajo está apoyado por la Cátedra Jean Monnet EUDFAKE: EU, disinformation and fake news (Call 2019 - 610538-EPP1-2019-1-ES-EPPJMO-CHAIR) perteneciente al programa Erasmus+ de la Comisión Europea; y por el proyecto “Racionalidad y contraconocimiento. Epistemología de la detección de falsedades en relatos informativos” (RTI2018-097709-B-I00) financiado por el Ministerio de Ciencia, Innovación y Universidades de España.

Bibliografía

Abuín-Penas, J. (2023). Fact-Checking en Youtube en España: tipología de verificaciones en vídeo en 2021. index.Comunicación, 13(1), 247-269. https://doi.org/10.33732/ixc/13/01Factch [ Links ]

Aguado-Guadalupe, G. y Bernaola-Serrano, I. (2020). Verificación en la infodemia de la Covid-19. El caso Newtral. Revista Latina de Comunicación Social, 78, 289-308. https://doi.org/10.4185/RLCS-2020-1478 [ Links ]

Amazeen, M. A. (2013, October 8). Making a difference? A critical assessment of fact-checking in 2012. New America Foundation. https://bit.ly/3FIXlpWLinks ]

Aspray, W., & Cortada, J.W. (2019). From urban legends to political fact-checking. Online scrutiny in America, 1990-2015. Springer. [ Links ]

Baptista, J.-P., Jerónimo, P., Piñeiro-Naval, V., & Gradim, A. (2022). Elections and fact- checking in Portugal: the case of the 2019 and 2022 legislative elections. Profesional de la Información, 31(6), e310611. https://doi.org/10.3145/epi.2022.nov.11 [ Links ]

Bernal-Triviño, A. y Clares-Gavilán, J. (2019). Uso del móvil y las redes sociales como canales de verificación de fake news. El caso de Maldita.es. Profesional de la Información, 28(3), e280312. https://doi.org/10.3145/epi.2019.may.12 [ Links ]

Blanco-Alfonso I., Chaparro-Domínguez M.A. y Repiso R. (2021). El fact-checking como estrategia global para contener la desinformación. Estudios sobre el Mensaje Periodístico, 27(3), 779-791. https://doi.org/10.5209/esmp.76189 [ Links ]

Card, D., Lin, L.H., & Smith, N.A. (2018, March 23). Politifact Language Audit. https://bit.ly/3E2n5MKLinks ]

Chen, Q., Min, C., Zhang, W., Ma, X., & Evans, R. (2021). Factors driving citizen engagement with government TikTok accounts during the Covid-19 pandemic: Model development and analysis. Journal of Medical Internet Research, 23(2). https://doi.org/10.2196/21463Links ]

Damasceno, D.R., & Patricio, E. (2020). Journalism and fact-ckecking: Typification of sources used for checking and criteria for selecting fact-checked material - an analysis by Agência Lupa and Aos Fatos. Brazilian Journalism Research, 16(2), 368-393. https://doi.org/10.25200/BJR.v16n2.2020.1212 [ Links ]

Dean, M. (2017, September 20). Snopes and the search for facts in a post-fact world. Wired. https://bit.ly/3U8xDzsLinks ]

Dimock, M. (2013, August 8). Amid criticism, support for media’s ‘watchdog’ role stands out. Pew Research Center. https://pewrsr.ch/3NA1C0GLinks ]

Donofrio A. (2022). Política y medios en Italia: De Berlusconi a Salvini, de la televisión a las redes sociales. Estudios sobre el Mensaje Periodístico, 28(1), 81-90. https://doi.org/10.5209/esmp.79027 [ Links ]

Farnsworth, S.J., & Lichter, S.R. (2016). A comparative analysis of the partisan targets of media fact- checking: Examining President Obama and the 113th Congress. https://bit.ly/3UdP028Links ]

Ferré-Pavia, C. y Codina, M. (2022). Narrativa de campaña en Instagram: Espectáculo y autorrepresentación de candidatos. El caso de las elecciones generales 2019. Index Comunicación, 12(1), 77-98. https://doi.org/10.33732/ixc/12/01Narrat [ Links ]

García-Marín, D. y Salvat-Martinrey, G. (2022). Viralizar la verdad. Factores predictivos del engagement en el contenido verificado en TikTok. Profesional de la Información, 31(2), e310210. https://doi.org/10.3145/epi.2022.mar.10 [ Links ]

García-Vivero, G. y López, X. (2021). La verificación de datos en Europa. Análisis de 5 iniciativas europeas: Maldita.es, Newtral, Pagella Politica, Les Décodeurs y BBC Reality Check. AdComunica, 21, 235-264. https://doi.org/10.6035/2174-0992.2021.21.12 [ Links ]

Gestoso, L. [@LuisGestoso] (2020, April 12). Me parece que @Newtral empieza a oler a podrido. Por ser progres y tener las teles se creen impunes. [Tweet]. Twitter. https://bit.ly/3fCnKLxLinks ]

Graves, L. (2016). Deciding what’s true: The rise of political fact-ckecking in American journalism. Columbia University Press. [ Links ]

Herrero, E. y Herrera-Damas, S. (2021a). El fact-checker en español alrededor del mundo: Perfil, similitudes y diferencias entre verificadores hispanohablantes. Revista de Comunicación de la SEECI, 54, 49-77. https://doi.org/10.15198/seeci.2021.54.e725 [ Links ]

Herrero, E. y Herrera-Damas, S. (2021b). El fact-checking hispanohablante: competencias, dificultades y propuestas de mejora desde la perspectiva de sus profesionales. Profesional de la Información, 30(6), e300612. https://doi.org/10.3145/epi.2021.nov.12 [ Links ]

Li, Y., Guan, M., Hammond, P., & Berrey, L.E. (2021). Communicating Covid-19 information on TikTok: A content analysis of TikTok videos from official accounts featured in the Covid-19 information hub. Health Education Research, 36(3), 261-271. https://doi.org/10.1093/her/cyab010 [ Links ]

Liu, Y., & Zhou, R. (2022). “Let’s check it seriously”: Localizing fact-checking practice in China. International Journal of Communication, 16, 4293-4315. https://bit.ly/3fEBUeXLinks ]

López-Pan, F. y Rodríguez-Rodríguez, J. M. (2020). El Fact Checking en España. Plataformas, prácticas y rasgos distintivos. Estudios sobre el Mensaje Periodístico, 26(3), 1045-1065. https://doi.org/10.5209/esmp.65246 [ Links ]

Magallón-Rosa, R. (2018). Nuevos formatos de verificación. El caso de Maldito Bulo en Twitter. Sphera Publica, 1(18), 41-65. https://bit.ly/43JHpMLLinks ]

Magallón-Rosa, R. (2019). Verificado México 2018. Desinformación y fact-checking en campaña electoral. Revista de Comunicación, 18(1), 234-258. https://doi.org/10.26441/RC18.1-2019-A12 [ Links ]

Makkonen, K., & Wiberg, M. (2017). Faktantarkistuksen perusteet. In M. Wiberg (Eds.), Faktat ja politiikka (pp. 37-53). Kunnallisalan kehittämissäätiö. https://bit.ly/3UvfJqBLinks ]

Mazaira-Castro, A., Rúas-Araújo, J. y Puentes-Rivera, I. (2019). Fact-checking en los debates electorales televisados de las elecciones generales de 2015 y 2016. Revista Latina de Comunicación Social, 74, 748-766. https://doi.org/10.4185/RLCS-2019-1355 [ Links ]

Moreno-Gil, V., Ramón, X., & Rodríguez-Martínez, R. (2021). Fact-checking interventions as counteroffensives to disinformation growth: Standards, values, and practices in Latin America and Spain. Media and Communication, 9(1), 251-263. https://doi.org/10.17645/mac.v9i1.3443 [ Links ]

Nieminen, S., & Rapeli, L. (2019). Fighting misperceptions and doubting journalists’ objectivity: A review of fact-checking literature. Political Studies Review, 17(3), 296-309. https://doi.org/10.1177/1478929918786852 [ Links ]

Nieminen, S., Raiskila, M., & Wiberg, M. (2017). Faktat politiikassa. Kunnallisalan kehittämissäätiö. [ Links ]

Nieminen, S., & Sankari, V. (2021) Checking PolitiFact’s Fact-Checks. Journalism Studies, 22(3), 358- 378, https://doi.org/10.1080/1461670X.2021.1873818 [ Links ]

Noain-Sánchez, A. (2019). Periodismo de confirmación vs. Desinformación: Verificado18 y las elecciones mexicanas de 2018. Ámbitos. Revista internacional de comunicación, 1(43), 95-114. https://doi.org/10.12795/Ambitos.2019.i43.05 [ Links ]

Nyhan, B., & Reifler, J. (2015). The effect of fact-checking on elites: A field experiment on U.S. state legislators. American Journal of Political Science, 59(3), 628-640. https://doi.org/10.1111/ajps.12162 [ Links ]

Ostermeier, E. (2011, February 10). Selection bias? PolitiFact rates Republican statements as false at 3 times the rates of Democrats. Smart Politics. https://bit.ly/3Upt5obLinks ]

Palau-Sampio, D. (2018). Fact-checking and scrutiny of power: Supervision of public discourses in new media platforms from Latin America. Communication & Society, 31(3), 347-365. https://doi.org/10.15581/003.31.3.347-363 [ Links ]

Palomo, B. y Sedano-Amundarain, J.A. (2018). WhatsApp como herramienta de verificación de fake news. El caso de B de Bulo. Revista Latina de Comunicación Social, 73, 1384-1397. https://doi.org/10.4185/RLCS-2018-1312 [ Links ]

Quinlan, S., & McAllister, I. (2022). Leader or party? Quantifying and exploring behavioral personalization 1996-2019. Party Politics, 28(1), 24-37. https://doi.org/10.1177/13540688211019239 [ Links ]

Ramahí-García, D., García-Crespo, O. y Dafonte-Gómez, A. (2021). Los formatos audiovisuales en la verificación de datos. Análisis de la actividad de los fact-checkers en YouTube (2009- 2020). AdComunica, (22), 119-140. https://doi.org/10.6035/2174-0992.2021.22.6 [ Links ]

Rodríguez Pérez, C. (2020). Una reflexión sobre la epistemología del fact-checking journalism: retos y dilemas. Revista de Comunicación, 19(1), 243-258. https://doi.org/10.26441/RC19.1-2020-A14 [ Links ]

Rodríguez-Pérez, C. (2021). Desinformación online y fact-checking en entornos de polarización social: El periodismo de verificación de Colombiacheck, La Silla Vacía y AFP durante la huelga nacional del 21N en Colombia. Estudios sobre el Mensaje Periodístico, 27(2), 623-637. https://doi.org/10.5209/esmp.68433 [ Links ]

Rodríguez-Pérez, C., Calvo, D., & Campos-Domínguez, E. (2022). Fact-checking en Colombia: RedCheq en las elecciones regionales de 2019. Cuadernos.Info, 53, 46-69. https://doi.org/10.7764/cdi.53.40653 [ Links ]

Rodríguez-Pérez, C., Seibt, T., Magallón-Rosa, R., Paniagua-Rojano, F.J., & Chacón- Peinado, S. (2022). Purposes, Principles, and Difficulties of Fact-checking in Ibero- America: Journalists’ Perceptions. Journalism Practice, 1-19. https://doi.org/10.1080/17512786.2022.2124434 [ Links ]

Sanahuja-Sanahuja, R. y López-Rabadán, P. (2022). La gestión de fuentes como criterio de calidad en el periodismo de verificación. Uso y tendencias en la cobertura de la COVID-19 en España. Hipertext.net, 24, 9-22. https://doi.org/10.31009/hipertext.net.2022.i24.02 [ Links ]

Seibt, T. (2020). Límites y posibilidades del fact-checking como práctica social para perfeccionar la democracia: El proyecto Truco Nos Estados en las elecciones brasileñas 2018. Index Comunicación, 10(2), 115-141. https://doi.org/10.33732/ixc/10/02Limite [ Links ]

Shin, J., & Thorson, K. (2017). Partisan selective sharing: The biased diffusion of fact-checking messages on social media. Journal of Communication, 67(2), 233-255. https://doi.org/10.1111/jcom.12284 [ Links ]

Smith, B. (2012, August 28). Romney Camp bets on welfare attack. BuzzFeed News. https://bit.ly/3NBilRkLinks ]

Uscinski, J.E. (2015). The Epistemology of Fact Checking (Is Still Naìve): Rejoinder to Amazeen. Critical Review: A Journal of Politics and Society, 27 (2), 243-252. https://doi.org/10.1080/08913811.2015.1055892 [ Links ]

Uscinski, J.E., & Butler, R.W. (2013). The Epistemology of Fact Checking. Critical Review, 25(2), 162-180. https://doi.org/10.1080/08913811.2013.843872 [ Links ]

Ufarte-Ruiz, M.J. y Murcia-Verdú, F.J. (2018). El fact ckecking: En busca de un nuevo modelo de negocio sostenible para el periodismo. Estudio de caso Miniver. Miguel Hernández Communication Journal, 9(2), 511-534. http://dx.doi.org/10.21134/mhcj.v0i9.267 [ Links ]

Ufarte-Ruiz, M.-J., Peralta-García, L. y Murcia-Verdú, F.-J. (2018). Fact checking: un nuevo desafío del periodismo. Profesional de la Información, 27(4), 733-741. https://doi.org/10.3145/epi.2018.jul.02 [ Links ]

Valera-Ordaz, L., Requena-i-Mora, M., Calvo, D. y López-García, G. (2022). Desenredando la desinformación: Nociones y discursos de la población española. Comunicar, 72, 21-32. https://doi.org/10.3916/C72-2022-02 [ Links ]

Vázquez-Herrero, J., Vizoso, A. y López-García, X. (2019). Innovación tecnológica y comunicativa para combatir la desinformación: 135 experiencias para un cambio de rumbo. Profesional de la Información, 28(3), e280301. https://doi.org/10.3145/epi.2019.may.01 [ Links ]

Vélez-Bermello, G. (2020). Inmediatez y fact-checking: Análisis del portal Ecuador Chequea. Revista ABRA, 40(61), 63-87. https://doi.org/10.15359/abra.40-61.3 [ Links ]

Vizoso, A., & Vázquez-Herrero, J. (2019). Fact-checking platforms in Spanish. Features, organisation and method. Communication & Society, 32(1), 127-142. https://doi.org/10.15581/003.32.37819 [ Links ]

Walker, R. (2016, October 19). How the truth set Snopes free. The Webby Awards. https://bit.ly/3E4JZ6dLinks ]

Zimdars, M., & McLeod, K. (Eds.). (2020). Fake news: Understanding media and misinformation in the digital age. The MIT Press. [ Links ]

Recibido: 28 de Febrero de 2023; Aprobado: 03 de Julio de 2023

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons