1. Introducción
El desafío de la desinformación presente en la sociedad actual ha tenido múltiples respuestas tanto desde la investigación científica como desde el ámbito profesional. En ambos campos, uno de los aspectos más abordados es el papel que las instituciones periodísticas deben adoptar con el fin de confrontar esta problemática. En este marco, resultan especialmente prevalentes los estudios sobre el periodismo de verificación o fact-checking (Moreno-Gil et al., 2021), prác- tica “basada en la comprobación de datos con herramientas actuales, con la informática y las tecnologías como elementos básicos en su marco de actuación” (Vázquez-Herrero et al., 2019,
p. 3). Si bien la comprobación de las informaciones propias antes de su publicación siempre fue una labor vinculada con el periodismo, las nuevas entidades especializadas en fact-checking presentan un matiz diferencial, ya que tratan de verificar contenidos de terceros después de su publicación. Esta labor resulta crucial cuando la desinformación se refiere a aspectos sensibles o de gran impacto como las emergencias sanitarias o las cuestiones relativas a la acción política, sobre todo en periodos electorales.
Aunque el auge y consolidación del periodismo de verificación es un fenómeno reciente, el origen del fact-checking político -encargado de verificar el discurso de los representantes públicos, tanto los elegidos para asumir cargos de responsabilidad como aquellos con labor de oposición- se remonta a la última década del siglo XX en Estados Unidos, a partir de iniciativas no profesionales vinculadas con las entonces incipientes comunidades online. Uno de los grupos más relevantes, integrado en la plataforma Usenet a principios de los años 90, era alt.folklore.urban, cuyos usuarios se dedicaban a desmontar leyendas urbanas populares de la cultura americana. Dos de los miembros más activos de esa comunidad, Barbara y David Mikkelson, crearon en 1995 snopes.com, una página web inicialmente destinada a la verifi- cación de bulos, falacias, desinformación y rumores. El tráfico de la página se incrementó considerablemente coincidiendo con las elecciones estadounidenses del año 2000 y, sobre todo, por la desinformación que circuló alrededor de los ataques terroristas del 11-S (Aspray y Cortada, 2019). Este acontecimiento provocó que snopes.com pasara de ser un sitio amateur para desmontar bulos y curiosidades a convertirse en la mayor organización de fact-checking del país (Dean, 2017). Su relevancia dentro del panorama político norteamericano se reforzó durante el periodo electoral de 2008 (Walker, 2016). Siguiendo su ejemplo, numerosas inicia- tivas de fact-checking emergieron desde comienzos del siglo XXI en Estados Unidos y a nivel internacional a fin de desmentir los bulos que circulan en los circuitos digitales y verificar el discurso emitido por la clase política. En este marco, se sitúa este trabajo, que pretende estudiar las prácticas de verificación del fact-checking político, así como sus posibles sesgos ideológicos en el contexto español a través del análisis de la actividad de Newtral, el principal verificador del discurso político en este país.
1.1 El fact-checking en España
En el contexto español, Miniver (nacido en 2006) fue el primer proyecto de verificación de hechos (Ufarte-Ruiz y Murcia-Verdú, 2018). Se trataba de una iniciativa del periodista Alfredo Expósito sin relación con ningún grupo mediático. Desde entonces, diferentes entidades de fact-checking han sido fundadas en España, no solo vinculadas a empresas periodísticas sino también de carácter independiente (Vizoso y Vázquez-Herrero, 2019), tales como Maldita (pro- yecto lanzado en 2013) y Newtral, entidad especializada en la verificación del contenido político que comenzó su actividad en 2018. En España, los estudios sobre este tipo de proyectos se han centrado en su papel e impacto en periodos electorales (Magallón-Rosa, 2019; Mazaira-Castro et al., 2019), sus prácticas de verificación (López-Pan y Rodríguez-Rodríguez, 2020), la utiliza- ción de la tecnología en su relación con el ciudadano (Palomo y Sedano-Amundarain, 2018), el uso de las redes sociales en el proceso de difusión de los chequeos (Magallón-Rosa, 2018), la estandarización de sus procesos (García-Vivero y López, 2021), la adopción de nuevos lenguajes para viralizar sus contenidos (García-Marín y Salvat-Martinrey, 2022) y sus desafíos y espacios de mejora (Noain-Sánchez, 2019; Seibt, 2020).
En este contexto, los trabajos de Herrero y Herrera-Damas (2021a) ponen de manifiesto la creciente importancia del papel de los verificadores en el control de los procesos informativos. En este sentido, los fact-checkers se han convertido en un movimiento periodístico de relevancia internacional que ha crecido exponencialmente desde 2018 tanto en el ámbito español como en el latinoamericano. Otros estudios se han centrado en la utilización de medios digitales au- diovisuales como YouTube en los procesos de verificación de noticias falsas a fin de garantizar que los contenidos verificados lleguen a grupos amplios de población (Ramahí-García et al., 2021). La literatura científica evidencia que el uso de esta plataforma por parte de estas enti- dades tiene cierto margen de mejora puesto que “los verificadores españoles parecen no seguir una estrategia de creación de contenido basada en los intereses de su audiencia” (Abuín-Penas, 2023, p. 248).
La difusión de las verificaciones con la misma velocidad de circulación que adquieren las informaciones falsas es uno de los principales retos que tienen estas entidades, además de la habitual subjetividad de muchas de las informaciones a chequear y la falta de acceso a información y datos de carácter restringido que resultan fundamentales para la actividad de verificación (Herrero y Herrera-Damas, 2021b). En la misma línea, se alude al desafío de respaldar “metodológicamente cada chequeo realizado profundizando en la transparencia metodológica que avale el porqué de la selección del contenido, de las fuentes y datos utiliza- dos” (Rodríguez-Pérez, 2020, p. 255). Otros estudios han mostrado que la experiencia de los verificadores es un factor decisivo a la hora de entender los límites entre esta actividad y el activismo político y social (Rodríguez-Pérez et al., 2022). Todos estos desafíos del fact-checking en el contexto español implican la “necesidad de una sólida formación de los periodistas que integren nuevos perfiles” (Ufarte-Ruiz et al., 2018, p. 1).
1.2 Fact-checking político y construcción de hipótesis
La efectividad del fact-checking, sobre todo cuando trata de verificar el discurso político, se fun- damenta en la obligada confianza que el ciudadano debe depositar en su labor de verificación (Zimdars y McLeod, 2020; Sanahuja-Sanahuja y López-Rabadán, 2022). Estudios como el de Valera-Ordaz et al. (2022) evidencian que una baja credibilidad de la institución periodística refuerza el impacto de la desinformación. Para lograr tal confianza, los fact-checkers deben asu- mir una posición neutral y no partidista en las diferentes fases del proceso de verificación que integra el fact-checking político (Graves, 2016): (1) la selección de las declaraciones a comprobar, (2) la ejecución del chequeo a partir de consultas a la fuente emisora o afectada por la afirma- ción, la revisión de documentos y datos oficiales y la consulta a expertos neutrales y (3) la reso- lución del verificado mediante la elección de un veredicto (verdadero, falso, engañoso, etc.) que informa sobre la veracidad de la declaración.
A pesar de su relevancia para la construcción de la credibilidad de estas entidades, apenas existen estudios centrados en los posibles sesgos partidistas e ideológicos de los verificadores del discurso político. Las escasas aproximaciones a este objeto de estudio proceden de Estados Unidos (Ostermeier, 2011; Card et al., 2018) y más recientemente de países como China (Liu y Zhou, 2022) y Colombia (Rodríguez-Pérez et al., 2022). Por ello, este trabajo pretende analizar desde una mirada cuantitativa no solo las prácticas periodísticas propias del fact-checking polí- tico, sino también sus posibles sesgos partidistas en el contexto español. El estudio se centrará exclusivamente en Newtral, cuya elección se justificará en el apartado siguiente.
Como se indicaba anteriormente, el punto de partida del proceso de comprobación de declara- ciones políticas se encuadra en la selección de la afirmación a chequear. Estudios previos como el de Palau-Sampio (2018) han mostrado que la verificación del discurso público se centra, sobre todo, en temáticas de tipo político y económico que pueden ser “comprobadas de forma objetiva” (Graves, 2016, p. 92).
Asimismo, las declaraciones chequeadas deben basarse en hechos verificables (Amazeen, 2013), “nunca opiniones” (Graves, 2016, p. 91), de modo que el tipo de declaración elegida debe estar desprovista de juicios de valor, aspectos morales o proyecciones de futuro difícilmente demos- trables. El trabajo de Liu y Zhou (2022) comprobó que la mayoría del discurso verificado en China y Estados Unidos se centra en declaraciones de tipo estadístico y comparativo (afirmacio- nes cuantitativas que se pueden validar objetivamente), frente a una menor cantidad de datos históricos y, sobre todo, opiniones.
Aunque la literatura científica ha prestado mayor atención al impacto del fact-checking político en la ciudadanía (Nieminen y Rapeli, 2019), trabajos como el de Nyhan y Reifler (2015), cen- trados en el efecto que esta práctica tiene sobre la clase política, determinan que cuando los políticos son conscientes de que van a ser chequeados tienden a producir discursos más veraces. Podríamos inferir, por tanto, que se verifica de forma más frecuente el discurso de aquellos políticos sin responsabilidad de gobierno, puesto que podrían ser los más proclives a producir contenido desinformativo al ser quienes menos tienen que perder en caso de recibir verifica- ciones negativas.
Una vez elegidas las declaraciones a comprobar, los fact-checkers activan la fase de ejecución, donde la consulta a fuentes documentales y datos oficiales es el principal recurso utilizado, de acuerdo con los estudios de, entre otros, Aguado-Guadalupe y Bernaola-Serrano (2020), Damasceno y Patricio (2020), Vélez-Bermello (2020) y Liu y Zhou (2022).
En las fases de selección y ejecución, resulta clave la estandarización de las prácticas indepen- dientemente de la fuente de la declaración a chequear, a fin de garantizar la neutralidad del proceso (Aspray y Cortada, 2019). Si tales prácticas fueran diferentes entre partidos o líderes políticos de modo que el proceso fuera más severo o exhaustivo a la hora de verificar el discur- so de unos partidos frente a otros, el fact-checker asumiría una posición claramente partidista y se convertiría en un “instrumento político” (Graves, 2016, p. 103). A estas labores se suma el enfoque del verificado y la forma de titular la pieza resultante, que también podrían dar lugar a ciertos sesgos partidistas o ideológicos (Uscinski y Butler, 2013; Uscinski, 2015).
El proceso de chequeo concluye cuando los verificadores emiten una calificación o veredicto sobre la veracidad de la declaración (fase de resolución). Aunque las entidades estadounidenses etiquetan las afirmaciones de los republicanos mucho más a menudo como falsas (Ostermeier, 2011; Farnsworth y Lichter, 2016; Card et al., 2018), por lo que han sido acusadas de poseer cierto sesgo progresista (Smith, 2012; Dimock et al., 2013), estudios en otros contextos no han encontrado sesgos partidistas con respecto a la resolución de los verificados (Baptista et al., 2022; Rodríguez-Pérez et al., 2022).
De acuerdo con todo este bagaje teórico, este trabajo plantea las siguientes hipótesis:
-H1. Además de las cuestiones políticas, los temas económicos son los más prevalentes en el discurso político verificado.
-H2. La mayoría de los desmentidos de tipo político consisten en declaraciones basadas en es- tadísticas y afirmaciones comparativas de tipo cuantitativo.
-H3. Se realiza mayor porcentaje de verificaciones a aquellos políticos sin responsabilidad de gobierno.
Nótese que estas tres primeras hipótesis están vinculadas con la primera fase del proceso de verificación (dimensión selectiva).
-H4. Los desmentidos en el fact-checking político suelen basarse en evidencias obtenidas de documentos y datos oficiales en mayor medida que la consulta a expertos en las materias veri- ficadas.
-H5. Dado que Newtral es miembro signatario de los principios de neutralidad y transparencia de la International Fact-Checking Network (IFCN), podría afirmarse que no hay diferencias significativas en las prácticas de fact-checking adoptadas por este verificador entre partidos polí- ticos. Estas prácticas incluyen las temáticas elegidas, el tipo de declaración seleccionada, el tipo de evidencias utilizadas, el número de evidencias diferentes empleadas y la cantidad total de fuentes consultadas.
-H6. No hay diferencias estadísticamente significativas en el veredicto de los chequeos entre partidos políticos.
2. Objetivos, materiales y método
En conexión con las hipótesis anteriormente mencionadas, este trabajo plantea los siguientes objetivos:
-O1: Analizar cuantitativamente el fact-checking político realizado en España en las dimensio- nes de selección (temas, tipo de declaraciones y partido político elegido para la verificación), ejecución (evidencias, número de fuentes y tipo de fuentes expertas utilizadas) y resolución (veredicto). Este objetivo integra las hipótesis H1, H2, H3 y H4.
-O2: Determinar la existencia de diferencias significativas en los chequeos a los diferentes par- tidos políticos que puedan implicar sesgos partidistas o ideológicos en la labor de verificación. Las hipótesis H5 y H6 están relacionadas con este segundo objetivo.
2.1 Justificación del caso
Para alcanzar estos fines, se diseñó una investigación mediante análisis de contenido cuantitativo con estadística descriptiva e inferencial aplicado a Newtral, el principal verificador del discurso político de España. La elección de un único verificador para la realización del trabajo de campo se basa en varios criterios. Por un lado, Newtral es el fact-checker español con mayor especializa- ción en verificación de contenido político y, por ello, ha sido seleccionado como estudio de caso en numerosos trabajos (García-Vivero y López, 2021; Aguado-Guadalupe y Bernaola-Serrano, 2020; García-Marín y Salvat-Martinrey, 2022). En su página web integra una sección específica (https://bit.ly/3WBreP6) dedicada a los chequeos realizados a la clase política nacional, organiza- dos de una forma estructurada que permite la recogida de datos de un modo sencillo, a diferencia del otro verificador de referencia español, Maldita, que presenta los chequeos a los políticos dis- tribuidos en diferentes secciones (no dispone, por tanto, de un espacio que agrupe los verificados de esta temática, lo que dificulta el acceso a las unidades de análisis).
Asimismo, resulta problemático integrar en una muestra única los desmentidos de entidades diferentes que utilizan distintas escalas para establecer la veracidad de las declaraciones che- queadas (Rodríguez-Pérez, 2021). Mientras que Newtral recurre a un modelo con cuatro valores (falso, engañoso, verdad a medias y verdad), Maldita mantiene diferentes escalas en función del tipo de chequeo realizado. En su sección Maldito bulo, esta entidad solo emplea dos categorías (bulo y no hay pruebas), mientras que en Maldito dato los niveles son tres (falso, falso pero… y verdadero pero…) y, a diferencia de Newtral, no otorga la calificación de “verdadera” a ningu- na declaración. Esta falta de homogeneidad en la resolución de las verificaciones desaconseja la integración de contenidos procedentes de diferentes fact-checkers y justifica la elección de un único caso para el estudio.
2.2 Muestra
En el inicio del trabajo de campo, Newtral integraba un total de 874 verificados políticos en su página web. Para seleccionar una muestra estadísticamente significativa, se utilizó un muestreo aleatorio sistemático con un nivel de confianza del 95% y un margen de error del 5%. La muestra final analizada fue de 268 chequeos (ver muestra completa en https://bit.ly/3E4D6Su) que abarcan los cuatro primeros años de actividad del verificador, desde el 09/10/2018 hasta el 04/10/2022. Este tamaño muestral es similar al de trabajos previos sobre las prácticas profesionales de los fact-checkers en China (Liu y Zhou, 2022). En la misma línea, los trabajos de, entre otros, Li et al. (2021), Chen et al. (2021), García-Marín y Salvat-Martinrey (2022) y Rodríguez-Pérez et al. (2022), basados en el análisis cuantitativo del contenido verificado, han utilizado tamaños muestrales próximos al de este estudio.
Al disponer del listado completo de verificados realizados por Newtral (universo), se seleccionó cada uno de los verificados que compondrían la muestra mediante la aplicación de un intervalo (k) tras la división del número de verificados (N=874) entre el valor de la muestra (n=268), resultando un valor k de 3,26. Esta cifra se redondeó a 3 a fin de seleccionar un verificado cada intervalo de 3, eligiendo el primero a analizar al alzar entre los verificados 1-3 del universo.
2.3 Instrumento
La técnica de investigación utilizada fue el análisis de contenido de tipo cuantitativo. Para ello, se diseñó un libro de códigos que recoge todas las variables del trabajo y su desglose en cate- gorías (Tabla 1). Se agrupan las variables en las dimensiones o fases del fact-checking político anteriormente descritas. En la dimensión o fase selectiva, se integran las variables “tema”, “tipo de declaración”, “partido político” y “responsabilidad de gobierno”. En la fase de ejecución, se incluyen: “tipo de evidencia utilizada”, “número de evidencias diferentes”, “tipo de fuentes expertas consultadas” y “número total de fuentes”. Finalmente, en la fase de resolución se tie- ne en cuenta el veredicto de acuerdo con la escala utilizada por Newtral. La variable temática (correspondiente a la fase selectiva) incluye una categoría denominada “política” que puede resultar confusa dado que toda la muestra se relaciona con declaraciones emitidas por los polí- ticos españoles. Esta categoría incluye todas las afirmaciones sobre estrategia política, ideología, procesos electorales y funcionamiento de los partidos. No se considera necesario definir expre- samente el resto de las categorías de esta variable (economía, salud, social, energía, educación, etc.) dado que resultan claras e inequívocas.
Dimensión | Variable | Categorías |
---|---|---|
Selección | Tema | Economía |
Política | ||
Salud | ||
Social | ||
Judicial | ||
Energía | ||
Educación | ||
Inmigración / raza | ||
Medio ambiente | ||
Género | ||
Ciencia / tecnología | ||
Otros | ||
Tipo de declaración | Estadísticas / comparaciones | |
Opiniones | ||
Datos históricos | ||
Legalidad | ||
Proyecciones futuras | ||
Vida personal | ||
Partido político | Se obtiene de la web del verificador. | |
Responsabilidad de gobierno | Sí. En caso de que el político tuviera responsabilidad de gobierno en el momento del chequeo. | |
No. En caso de que el político no tuviera responsabilidad de gobierno en el momento del chequeo. | ||
Ejecución | Evidencia | Documentos / datos oficiales |
Fuente emisora de la declaración o mencionada en ella | ||
Expertos | ||
Fuente emisora o mencionada + fuentes documentales | ||
Fuentes documentales + expertos | ||
Fuente emisora o mencionada + fuentes documentales + expertos | ||
Nº de evidencias diferentes | Variable cuantitativa | |
Tipo de fuentes expertas | Profesionales | |
Mediáticas | ||
Ambas | ||
Número de fuentes | Variable cuantitativa | |
Resolución | Veredicto | Falso |
Engañoso | ||
Verdad a medias | ||
Verdad (Ver significado de cada categoría en: https://bit.ly/3UrH0Kj) |
Fuente: elaboración propia.
En una segunda fase del estudio, y como complemento a la investigación con la muestra gene- ral, se aplicó el mismo instrumento a una muestra específica de chequeos a los líderes políticos de los cinco partidos más votados -y con más verificados- en el periodo estudiado. En esta fase, se analizaron los desmentidos a Pedro Sánchez (PSOE), Pablo Casado y Alberto Núñez Feijóo (PP), Santiago Abascal (Vox), Pablo Iglesias e Ione Belarra (Podemos) y Albert Rivera e Inés Arrimadas (Ciudadanos). En el caso de los líderes políticos, se estudiaron todos los che- queos realizados por el verificador desde el comienzo de su actividad (n=248). El objetivo de esta fase complementaria era corroborar la inexistencia de sesgos partidistas e ideológicos en la ejecución de los verificados cuando se toma como referencia el discurso de los líderes políticos con mayor proyección pública del país.
2.4 Análisis de los datos
La muestra fue analizada por un único codificador, dado que prácticamente todas las variables no implican un elevado grado de interpretación y resultan fácilmente objetivables. El tratamien- to de datos se realizó mediante estadística descriptiva e inferencial. En primer lugar, se ejecutó el test de Kolmogorov-Smirnov con corrección de significación de Lilliefors para determinar la normalidad de la distribución de valores en la muestra, a fin de decidir la realización de prue- bas paramétricas o no paramétricas. El test determinó la ausencia de normalidad (p<.001), por lo que se utilizaron pruebas de contraste de hipótesis no paramétricas (Kruskal-Wallis para las variables no dicotómicas y U de Mann-Whitney para las dicotómicas) y coeficiente de Spearman para los estudios correlacionales. En el estudio mediante tablas de contingencia bivariadas se utilizó la prueba de chi cuadrado para determinar diferencias significativas entre las categorías de las variables. El análisis de datos fue realizado con el programa SPSS v.27.
3. Resultados
3.1 Temas, tipo de declaraciones y evidencias
Las declaraciones más chequeadas se corresponden con temas económicos (38,80%), segui- das de las que hacen referencia a cuestiones políticas (17,16%), sanitarias (13,80%) y sociales (12,68%) (Tabla 2). La mayor frecuencia de las temáticas de raíz económica valida la H1. Las cuatro categorías temáticas mencionadas acumulan el 82,44% de las declaraciones emitidas por los políticos verificados. También queda confirmada la H2, relativa a la prevalencia de las afirmaciones basadas en datos estadísticos o comparaciones, ya que una amplísima mayoría del contenido chequeado (58,95%) se fundamenta en declaraciones de este tipo. La comprobación de opiniones constituye, a mucha distancia, la segunda categoría más frecuente en la variable “tipo de declaración” (20,52%).
Un aspecto destacable de los resultados obtenidos es el elevado porcentaje de chequeos que recibe el Partido Popular (36,94%), 15,30 puntos superior al del otro principal partido del país (el PSOE, que acumula el 21,64%). Esta mayor atención de Newtral hacia el discurso del principal partido de la oposición a nivel nacional se refrenda con los datos de verificación a los líderes políticos presentados en el apartado 3.3., donde Pablo Casado acumula el 40,72% de las comprobaciones. En la misma línea, el verificador selecciona mayor número de afirmaciones procedentes de los políticos sin responsabilidad de gobierno en el momento de emitir la decla- ración chequeada (58,95% frente a 41,04%), resultado que valida la H3.
El tipo de evidencia más utilizado en las prácticas de fact-checking político en Newtral es la revi- sión exclusiva de documentos y datos oficiales (36,56%). El segundo modelo de evidencia es la consulta a la fuente emisora de la declaración o fuente aludida, en combinación con el estudio de documentos o datos oficiales (26,11%). En prácticamente todos los chequeos (98,50%) se re- curre a fuentes documentales. La consulta a expertos en las materias verificadas está presente en el 36,19% de las piezas. Este dominio de las fuentes documentales y los datos oficiales frente a la consulta a expertos nos lleva a corroborar la H4. En el 24,25% de los chequeos se recurre a fuentes expertas profesionales, mientras que el 5,97% del contenido verificado se realiza a través de fuentes expertas mediáticas. Las verificaciones basadas en la suma de ambos tipos de fuentes expertas (profesionales y mediáticas) registran el mismo porcentaje (5,97%). Como promedio, se utilizan 1,75 evidencias distintas y el número medio de fuentes consultadas en los chequeos es de 7,14.
Resultan ampliamente mayoritarias las afirmaciones donde el político incorpora algún grado de falsedad. La suma de contenidos engañosos y falsos alcanza el 87,31%. Tan solo 6 afirmacio- nes (2,23%) resultaron ser verdaderas a juicio del fact-checker.
Tema (n > 5) | ||
---|---|---|
n | Fr | |
Economía | 104 | 38,80% |
Política | 46 | 17,16% |
Salud | 37 | 13,80% |
Social | 34 | 12,68% |
Judicial | 13 | 4,85% |
Energía | 9 | 3,35% |
Educación | 7 | 2,61% |
Tipo de declaración | ||
n | Fr | |
Estadísticas / comparaciones | 158 | 58,95% |
Opiniones | 55 | 20,52% |
Datos históricos | 40 | 14,92% |
Legalidad | 11 | 4,10% |
Proyecciones futuras | 2 | 0,74% |
Vida personal | 1 | 0,37% |
Partido político (n > 10) | ||
n | Fr | |
PP | 99 | 36,94% |
PSOE | 58 | 21,64% |
Vox | 33 | 12,31% |
Podemos | 29 | 10,82% |
Ciudadanos | 17 | 6,34% |
Junts per Catalunya | 12 | 4,47% |
ERC | 12 | 4,47% |
Responsabilidad de gobierno | ||
n | Fr | |
Sí | 110 | 41,04% |
No | 158 | 58,95% |
Evidencias | ||
n | Fr | |
Documentos / datos oficiales | 98 | 36,56% |
Fuente emisora o mencionada + fuentes documentales | 70 | 26,11% |
Fuentes documentales + expertos | 59 | 22,01% |
Fuente emisora o mencionada + fuentes documentales + expertos | 37 | 13,80% |
Fuente emisora o mencionada | 3 | 1,11% |
Expertos | 1 | 0,37% |
Veredicto | ||
n | Fr | |
Falso | 120 | 44,77% |
Engañoso | 114 | 42,53% |
Verdad a medias | 28 | 10,44% |
Verdad | 6 | 2,23% |
Fuente: elaboración propia.
A fin de alcanzar mayor precisión en los datos sobre las características de los chequeos, se realizó un estudio correlacional de las variables medidas en el trabajo (Tabla 3). Para ello, se construyeron dos variables dummy (o ficticias) dicotómicas a partir de las variables gene- rales “tema” y “tipo de declaración”. Se recodificó la primera nueva variable, denominada “tema económico”, asignando el valor 1 a los verificados con temática económica y el 0 al resto de chequeos. Se tomó como referencia la temática económica por ser la categoría más prevalente de su variable. Se llevó a cabo la misma operación para crear la segunda nueva variable, denominada “declaración estadística” (afirmaciones de tipo estadístico: 1; resto de afirmaciones: 0). De este modo, las variables analizadas en el estudio correlacional fueron: (1) responsabilidad de gobierno (No: 0; Sí: 1), (2) número de evidencias distintas (cuantitativa), (3) número de fuentes (cuantitativa), (4) veredicto (Verdad: 1; Verdad a me- dias: 2; Engañoso: 3; Falso: 4), (5) tema económico (No: 0; Sí: 1), (6) declaración estadística (No: 0; Sí: 1) y (7) número de fuentes expertas (cuantitativo).
En primer lugar, se observa una asociación significativa entre el tipo de declaración estadís- tica y el número de evidencias diferentes utilizadas para su comprobación: las declaraciones basadas en estadísticas y/o comparaciones se verifican con menor número de evidencias distintas; es decir, el fact-checker triangula menor cantidad de evidencias de diferente na- turaleza para su verificación (se usan, sobre todo, fuentes documentales y datos oficiales). Los datos históricos se comprueban con un número significativamente mayor de evidencias diferentes (además de recurrir a las fuentes documentales, se consulta a expertos y/o a las fuentes implicadas en la afirmación a verificar). Por otro lado, las afirmaciones de tipo económico tienden a estar basadas en declaraciones de carácter estadístico/comparativo. Finalmente, aunque el grado de asociación se queda próximo a la significación estadística (p=.070), los resultados observan una cierta relación entre el número de fuentes consul- tadas y el veredicto del chequeo: a mayor cantidad de fuentes utilizadas, mayor grado de falsedad determina el fact-checker.
Resp. gobierno | Nº de evidencias | Nº de fuentes | Veredicto | Tema econ. | Declaración estadística | Nº expertos | |
---|---|---|---|---|---|---|---|
Resp. gobierno | .022 (p=.724) | .105 (p=.090) | .037 (.548) | -.029 (p=.639) | .113 (p=.065) | .027 (p=.661) | |
Nº de evidencias | .450 (p<.001)** | .109 (p=.075) | -.039 (p=.522) | -.165 (p=.007)* | .602 (p<.001)** | ||
Nº de fuentes | .112 (p=.070) | -.077 (p=.215) | -.103 (p=.096) | .420 (p<.001)** | |||
Veredicto | -.019 (p=.763) | .001 (p=.987) | .080 (p=.192) | ||||
Tema econ. | .260 (p<.001)** | .076 (p=.214) | |||||
Declaración estadística | .004 (p=.947) | ||||||
Nº expertos |
*Diferencias significativas cuando p < .01.
**Diferencias muy significativas cuando p < .001.
Fuente: elaboración propia.
3.2 Comparativa entre partidos
Para confirmar la H5, se ejecutó un análisis por tablas de contingencia bivariadas con prueba de contraste de chi cuadrado (Tabla 4). En primer lugar, las temáticas seleccionadas por partidos políticos no presentan diferencias estadísticamente relevantes [X2(130, N = 268) = 99.557, p =
.978]. Tampoco existen diferencias relevantes en el tipo de declaración verificada por formaciones políticas [X2(78, N = 268) = 57.931, p = .957]. En todos los partidos, las declaraciones de tipo estadístico son claramente mayoritarias. No se perciben desviaciones relevantes en el tipo de evidencias utilizadas para comprobar las declaraciones de las distintas formaciones políticas [X2(65, N = 268) = 53.572, p = .843]. Tampoco existen diferencias entre partidos en el número de evidencias empleadas para realizar los chequeos [H(13) = 19.882, p = .098] ni en la cantidad total de fuentes consultadas [H(13) = 10.449, p = .657]. Al corroborar la ausencia de diferencias notables en las prácticas de fact-checking entre formaciones políticas, la H5 queda totalmente confirmada.
Asimismo, el resultado de los veredictos no presenta tampoco desviaciones estadísticamente nota- bles [X2(39, N = 268) = 47.563, p = .163], si bien se percibe que los partidos mayoritarios del blo- que de derechas reciben un número ligeramente mayor de veredictos negativos (suma de falsos y engañosos). El resultado de la prueba de contraste de hipótesis nos lleva a confirmar también la H6.
Temas (n > 5) | |||||
---|---|---|---|---|---|
PSOE | PP | Vox | Podemos | Cs | |
Economía | 22 (37,93%) | 44 (44,44%) | 10 (30,30% | 8 (27,58%) | 7 (41,17%) |
Política | 12 (20,68%) | 14 (14,14%) | 4 (12,12%) | 3 (10,34%) | 5 (29,41%) |
Salud | 11 (18,96%) | 19 (19,19%) | 3 (9,09%) | 3 (10,34%) | 0 (0%) |
Social | 7 (12,06%) | 6 (6,06%) | 6 (18,18%) | 7 (24,13%) | 2 (11,76%) |
Judicial | 1 (1,72%) | 5 (5,05%) | 1 (3,03%) | 5 (17,24%) | 1 (5,88%) |
Energía | 0 (0%) | 4 (4,04%) | 2 (6,06%) | 2 (6,89%) | 1 (5,88%) |
Educación | 2 (3,44%) | 2 (2,02%) | 0 (0%) | 1 (3,44%) | 0 (0%) |
X2: gl = 130, valor = 99.557, p = .978, razón de verosimilitud = 96.787, N = 268 | |||||
Tipo de declaración | |||||
PSOE | PP | Vox | Podemos | Cs | |
Estadísticas / comparaciones | 37 (63,79%) | 60 (60,60%) | 16 (48,48%) | 15 (51,72%) | 10 (58,82%) |
Opiniones | 10 (17,24%) | 14 (14,14%) | 12 (36,36%) | 9 (31,03%) | 5 (29,41%) |
Datos históricos | 11 (18,96%) | 20 (20,20%) | 1 (3,03%) | 2 (6,895) | 1 (5,88%) |
Legalidad | 0 (0%) | 3 (3,03%) | 3 (9,09%) | 3 (10,34%) | 0 (0%) |
Proyecciones futuras | 0 (0%) | 1 (1,01%) | 0 (0%) | 0 (0%) | 1 (5,88%) |
Vida personal | 0 (0%) | 1 (1,01%) | 0 (0%) | 0 (0%) | 0 (0%) |
X2: gl = 78, valor = 57.931, p = .957, razón de verosimilitud = 54.836, N = 268 | |||||
Número de evidencias (Número de fuentes consultadas) | |||||
PSOE | PP | Vox | Podemos | Cs | |
Promedio | 1,69 (7,68) | 1,72 (6,64) | 1,70 (7,70) | 2,03 (7,25) | 1,59 (6,19) |
Desviación típica | 0,730 (5,46) | 0,686 (4,65) | 0,637 (7,99) | 0,566 (6,34) | 0,618 (3,90) |
Kruskal-Wallis número estrategias: gl = 13, valor = 19.882, p = .098, N = 268 | |||||
Kruskal-Wallis número fuentes consultadas: gl = 13, valor = 10.449, p = .657, N = 264 | |||||
Evidencias | |||||
PSOE | PP | Vox | Podemos | Cs | |
Documentos / datos oficiales | 27 (46,55%) | 38 (38,38%) | 13 (39,39%) | 3 (10,34%) | 8 (47,05%) |
Fuente emisora o mencionada + fuentes documentales | 14 (24,13%) | 22 (22,22%) | 6 (18,18%) | 15 (51,72%) | 4 (23,52%) |
Fuentes documentales + expertos | 8 (13,79%) | 23 (23,23%) | 11 (33,33%) | 5 (17,24%) | 4 (23,53%) |
Fuente emisora o mencionada + fuentes documentales + expertos | 9 (15,51%) | 13 (13,13%) | 3 (9,09%) | 5 (17,24%) | 1 (5,88%) |
Fuente emisora o mencionada | 0 (0%) | 2 (2,02%) | 0 (0%) | 1 (3,44%) | 0 (0%) |
Expertos | 0 (0%) | 1 (1,01%) | 0 (0%) | 0 (0%) | 0 (0%) |
X2: gl = 65, valor = 53.572, p = .843, razón de verosimilitud = 53.435, N = 268 | |||||
Veredicto | |||||
PSOE | PP | Vox | Podemos | Cs | |
Falso | 25 (43,10%) | 55 (55,55%) | 14 (42,42%) | 8 (27,58%) | 6 (35,29%) |
Engañoso | 25 (43,10%) | 35 (35,35%) | 16 (48,48%) | 12 (41,37%) | 9 (52,94%) |
Verdad a medias | 6 (10,34%) | 7 (7,07%) | 3 (9,09) | 7 (24,13%) | 2 (11,76%) |
Verdad | 2 (3,44%) | 2 (2,02%) | 0 (0%) | 2 (6,89%) | 0 (0%) |
X2: gl = 39, valor = 47.563, p = .163, razón de verosimilitud = 42.304, N = 268 |
* Los porcentajes se calculan sobre el total del partido político.
Fuente: elaboración propia.
3.3 Fact-checking a los líderes políticos
El análisis de los chequeos a los líderes políticos (n=248) arroja varios resultados relevantes. En primer lugar, tal como recoge el apartado 3.1., se observa una mayor atención hacia las declaraciones de líderes del PP, que representan el 46,77% de la muestra específica, sobre todo las realizadas por Pablo Casado, que aglutina el 40,72% de los verificados a los líderes políticos. También es llamativo que los líderes reciben mayor número de “falsos” (56,50%) que la clase política general (44,77%), pero menor número de “engañosos” (28,20% frente a 42,53%), si bien la suma de falsos y engañosos resulta ciertamente equilibrada entre la mues- tra general y la relativa a los líderes políticos (87,30% la muestra general frente al 84,70% de los líderes).
El análisis del sentido de los veredictos tomando como referencia el discurso verificado de los líderes no determina diferencias notables ni por partidos políticos [X2(12, N = 248) = 14.368, p = .278], ni por ideologías [X2(3, N = 248) = 6.398, p = .094]. Solo se perciben desviaciones muy significativas en los temas elegidos por partido político (p<.001) y significativas en el tipo de declaración seleccionada por formación política (p=.022). Ninguna variable relativa a la ejecución y resolución de los chequeos registra diferencias notables por ideología. Estos datos vuelven a corroborar las H5 y H6. Obsérvese que la agrupación de los partidos políticos por ideología se basó en el eje izquierda-derecha determinado por la valoración ciudadana sobre la posición ideológica de los líderes políticos de acuerdo con el Centro de Investigaciones Sociológicas de España (https://bit.ly/3sYJapj).
Todos los resultados del estudio de los chequeos por partido político e ideología a partir de los verificados a los líderes están disponibles en https://bit.ly/3TctWrt.
4. Discusión y conclusiones
Los resultados del estudio validan todas las hipótesis planteadas. En primer lugar, las declara- ciones más chequeadas son aquellas que contienen temas económicos y políticos. Estos resul- tados coinciden parcialmente con estudios previos realizados sobre el fact-checking en España desde una perspectiva general (no centrada exclusivamente en la verificación política). En este sentido, los trabajos de Blanco-Alfonso et al. (2021) y Bernal-Triviño y Clares-Gavilán (2019) determinan que la temática política es la más prevalente en los bulos desmentidos en el ámbito español, aunque no las cuestiones económicas.
La mayor parte de las declaraciones están basadas en estadísticas o comparaciones, lo que confirma los resultados obtenidos por Liu y Zhou (2022) en el contexto chino. Se puede afirmar, por tanto, que Newtral, en sus prácticas de fact-checking político, selecciona ge- neralmente afirmaciones verificables de acuerdo con la literatura científica (Makkonen y Wiberg, 2017; Nieminen et al., 2017), habitualmente alejadas de opiniones, proyecciones de futuro, declaraciones ambiguas, tautologías o afirmaciones basadas en valores morales, éticos o referidas a experiencias personales. Sin embargo, resulta problemático el número de chequeos basados en opiniones difícilmente verificables (20,52%), lo que indica un cierto margen de mejora en la fase de selección de las afirmaciones. Este dato confirma estudios previos realizados en el contexto estadounidense (Nieminen y Sankari, 2021). En todo caso, aunque la veracidad de una opinión puede ser difícil de demostrar, “la información que so- bre ella ofrecen los verificadores resulta significativa en términos periodísticos” (Nieminen y Sankari, 2021, p. 374).
Se observa un predominio absoluto del uso de fuentes documentales y datos oficiales en la fase de ejecución de las verificaciones. Sin embargo, trabajos como el de Sanahuja-Sanahuja y López-Rabadán (2022), realizados sobre chequeos de diversas temáticas además de la política, arrojan resultados contrarios, lo que podría deberse a que en el fact-checking político se consul- tan fuentes diferentes y, por tanto, se emplean prácticas de verificación distintas a las utilizadas en la comprobación de bulos o contenidos desinformativos que circulan en las redes sociales. Futuros trabajos podrían aclarar esta cuestión.
La investigación realizada sobre toda la clase política no observa diferencias significativas en el proceso de comprobación por partidos en las fases de ejecución y resolución. Estos datos, coincidentes con los de Rodríguez-Pérez et al. (2022) sobre el fact-checking político en Colom- bia y los de Baptista et al. (2022) en Portugal, contrastan con los obtenidos por Farnsworth y Lichter (2016) y Card et al. (2018), quienes observaron la existencia de cierto sesgo progre- sista en los verificadores estadounidenses a la hora de determinar la veracidad de las afirma- ciones emitidas por los políticos republicanos y demócratas. En el mismo sentido, el trabajo de Ostermeier (2011) evidenció que el discurso de los políticos conservadores es calificado como falso en el triple de ocasiones que el de los progresistas. Este aspecto influye en la escasa valoración que los republicanos tienen sobre las entidades de fact-checking en Estados Unidos, que manifiestan una menor confianza en estos proyectos periodísticos que los demócratas (Shin y Thorson, 2017). Los resultados de nuestra investigación son totalmente opuestos, ya que muestran la inexistencia de diferencias estadísticamente significativas en el número de veredictos negativos por partido político. Asimismo, el estudio practicado sobre el discurso de los principales líderes arroja resultados similares en cuanto a la ausencia de sesgos partidistas e ideológicos en las mismas fases del proceso de verificación (ejecución y resolución), incluido el veredicto sobre la veracidad de las declaraciones. Este resultado contradice el posiciona- miento de políticos conservadores españoles que, al igual que en el caso estadounidense, en los últimos años han acusado a los verificadores de servir a intereses partidistas y presentar sesgos ideológicos que favorecen a las formaciones de izquierda (Gestoso, 2020).
No obstante, nuestro estudio evidencia una mayor atención de Newtral hacia el discurso de los parti- dos conservadores (fase selectiva), lo que podría indicar un cierto sesgo de selección. Esta tendencia es más acusada en el caso del Partido Popular, especialmente hacia su anterior presidente, Pablo Casado, que recibe casi la mitad de los desmentidos de la muestra correspondiente a los principales líderes. Un sesgo de selección hacia el discurso de una determinada figura política resultaría clara- mente perjudicial en una época como la actual, caracterizada por una creciente personalización de la política (Quinlan y McAllister, 2022; Ferré-Pavia y Codina, 2022), “marcada por la centralidad del líder en los procesos de comunicación” (Donofrio, 2022, p. 82) y por la extensión de su imagen y valores a las siglas. Futuros trabajos deberán determinar si el mayor número de comprobaciones sobre este partido responde a un sesgo de selección real del verificador, a una mayor tendencia fake en el discurso de esta formación política, o a una mayor predisposición a emitir declaraciones veri- ficables (basadas en estadísticas y comparaciones) por parte de sus miembros.