SciELO - Scientific Electronic Library Online

 
vol.22 número1Creación periodística de héroes y anti-héroes en Twitter: Zelenski y Putin en la guerra de UcraniaMapa mediático hispanoamericano: una aproximación desde la academia índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista de Comunicación

versión impresa ISSN 1684-0933versión On-line ISSN 2227-1465

Revista de Comunicación vol.22 no.1 Piura mar./ago. 2023  Epub 05-Abr-2023

http://dx.doi.org/10.26441/rc22.1-2023-3022 

Artículos de Investigación

Sonificación y periodismo: la representación de datos mediante sonidos

Sonification and journalism: how to play data through sounds

1 Doctor en Comunicación, Profesor y Coordinador de la asignatura Periodismo de Datos en la Facultad de Humanidades, Comunicación y Documentación de la Universidad Carlos III de Madrid. Sus líneas de investigación versan sobre periodismo de datos, tecnología audiovisual, ciencia abierta, datos abiertos, elearning, lenguajes de marcado, edición de textos. pirio@bib.uc3m.es

2 Doctora en Ciencias de la Información, Coordinadora del Máster Oficial en Dirección de Comunicación y Nuevas Tecnologías en la Facultad de Ciencias Sociales de ESIC University (Madrid). Sus líneas de investigación versan sobre periodismo de datos, datos abiertos, comunicación sonora y audiovisual, alfabetización mediática. alicia.tapia@esic.university

Resumen

La sonificación es una técnica de representación de datos mediante sonidos, que se ha empleado en distintas disciplinas, incluido el periodismo, de forma más intensiva en los últimos 30 años. Su uso con contenidos periodísticos está íntimamente ligado a prácticas en otros campos, como la representación de grandes volúmenes de datos en algunas disciplinas científicas, así como la interpretación sonora de series de datos para personas con discapacidad visual. Este artículo pretende efectuar una aproximación teórica a la sonificación, ofrecer una panorámica sobre su evolución y sobre los retos de su uso en el contexto de la información de actualidad. Incluye una introducción general sobre la sonificación, sus elementos y técnicas principales, así como un análisis bibliográfico tanto a nivel académico como profesional. Como resultado, se presenta una panorámica de trabajos basados en sonificaciones: en primer lugar, aplicados a producciones científicas y a personas con discapacidad; y basadas en las anteriores, se presentan ejemplos específicos de sonificaciones periodísticas, así como descripciones de herramientas empleadas para desarrollar esta técnica. La sonificación se ha demostrado útil como representación alternativa para discriminar diferencias en grandes volúmenes de datos. A cambio, buena parte de las producciones y herramientas usadas son aún experimentales. Queda aún pendiente su conversión en una forma masiva de representar datos, debido a la complejidad de la percepción humana del sonido, la dificultad para conciliar sus valores emotivos e informativos, y la necesidad de formar al público en el uso de esta técnica.

Palabras clave: sonificación; audificación; periodismo; datos; sonido; ciencia; discapacidad visual; información de actualidad; software

Abstract

Sonification is a technique for representing data using sound, which has been used in various disciplines, including journalism, more intensively in the last 40 years. Its use with journalistic content is closely linked to practices in other fields, such as the representation of large scientific volumes of data, as well as the interpretation of data sets through sounds for visually impaired people. This article aims to provide a theoretical approach to sonification, an overview of its evolution and the challenges of its use in the context of news reporting. It includes a general introduction to sonification, its main elements and techniques, as well as a bibliographical analysis of both academic and professional literature. As a result, an overview of work based on sonifications is presented: firstly, applied to scientific productions and to people with visual impairment. Based on the above, specific examples of journalistic sonifications are presented, as well as descriptions of tools used to develop this technique. Sonification has proved useful as an alternative representation for discriminating differences in large volumes of data. However, much of its output and tools are still experimental. The complexity of human perception of sound, the difficulty of balancing its emotive and informative values, and the need to train the public in the use of this technique mean that it has yet to become a mass form of data representation.

Keywords: sonification; audification; journalism; data, sound; science; visually impaired people; current news; software

1. Introducción

El uso de sonidos para representar conjuntos de datos y variaciones dentro de los mismos, que se conoce como sonificación, es una herramienta que mantiene todavía la etiqueta de “novedosa”, a pesar de contar con décadas de experiencia previa (Kramer et al., 1999). Esta forma de representación ha sido usada, aunque aún tímidamente, en algunos contenidos periodísticos. El presente texto ofrece una panorámica sobre su evolución y situación actual, y plantea algunos de los retos que la sonificación tiene pendientes.

De forma general, ya utilizamos sonificaciones para representar datos y variaciones. El caso más sencillo es el uso de bips o sonidos agudos en las cajas de los supermercados: cada sonido se emplea como confirmación de que ese producto y su precio han sido incorporados a la cuenta de la compra. Su uso principal es meramente de confirmación, es decir, que su precio ha sido contabilizado correctamente. Pero también puede ser usado para trazar los comportamientos de los consumidores (Seiça et al. 2019).

Algo más complejo es otro ejemplo típico: monitores de frecuencias cardiacas de los hospitales. En ellos, la frecuencia de cada latido es convertida en un sonido. A medida que aumenta esa frecuencia, esos sonidos son también más rápidos y, si llega el caso, más agudos, lo que sirve como alerta acerca del estado de salud de un paciente incluso sin mirar al monitor (Väljamäe et al., 2013).

Ambos casos muestran uno de los principales usos de la sonificación: ayudar a los investigadores a detectar patrones entre una cantidad excesiva de datos (Monteiro, 2020), y también, a percibir sonidos. Esta capacidad es especialmente útil cuando los datos varían en tiempo real, como ocurre con las cotizaciones de un mercado de valores. Estas pueden transformarse en sonidos continuos, donde se intensifique un parámetro sonoro, como la frecuencia: cuando los valores aumenten el sonido se hará más agudo, o viceversa, más grave si los valores disminuyen (Ryssdal y Fam, 2020).

Hay un segundo uso tradicional de la sonificación: la representación de series de datos más complejos, de forma complementaria, paralela o incluso “diferente” a la empleada para la representación visual. Este propósito se ha planteado, en primer lugar, pensando en personas con discapacidad visual. Takahashi y Miller (2007) ya indicaron que las representaciones auditivas permitirían la posibilidad de que las personas con discapacidad visual pudieran realizar cualquier carrera científica. Más allá de este uso restringido, se ha demostrado que, representando grandes conjuntos de datos mediante sonidos, en lugar de mediante gráficos visuales, resulta más fácil percibir incluso pequeñas variaciones en estos datos (INTA-NASA, 2020).

El sonido tiene también un componente añadido, tanto estético como emocional, que genera significados propios que pueden ser diferentes para quienes producen esos sonidos y para quienes los escuchan: pensemos, por ejemplo, en el efecto de una banda sonora sobre la imagen de una película. Una sonificación es una representación sonora y “cuanto más estética resulte una sonificación, más fácil será de escuchar y, por lo tanto, de comprender... siempre que al tiempo se logre transmitir el mensaje” (Walker y Nees, 2011).

Teniendo en cuenta estos elementos mínimos, ¿hasta qué punto es posible usar sonificaciones con fines periodísticos? En los últimos años, ha surgido un pequeño pero creciente interés en la intersección entre sonificación y periodismo, señalándola como una vía con gran potencial de futuro (Rogers, 2019; Duncan y Geere, 2020; Wirfs-Brock, 2021).

Responder a estas preguntas requiere tener en cuenta el contexto actual de la sonificación periodística. Por una parte, esta técnica está basada en las prácticas previas aplicadas a la comunicación científica de datos masivos, así como a la representación de datos para personas con discapacidad visual. Los periodistas que han aplicado esta técnica han partido de la tradición en ambos campos, lo que hace preciso conocer y describir esas prácticas previas, para poder entender cómo se han aplicado en el ámbito periodístico.

Más aún, esta mirada previa es precisa debido a la escasa presencia de investigaciones específicas sobre cómo combinar sonificación y periodismo; y especialmente, en español, donde no hay apenas publicaciones académicas al respecto. Incluso en inglés, la lista de publicaciones que tratan estos temas es muy escasa, y no aparece prácticamente en revistas sobre periodismo ni, apenas, sobre comunicación. Los textos sobre sonificación y periodismo aparecen, paradójicamente, en publicaciones relativas a otras disciplinas: la informática y las telecomunicaciones, las ingenierías o la psicología, entre otras. Sí se han encontrado publicaciones, aunque no académicas, en algunos sitios web especializados en periodismo (Corey et al., 2019).

Basándonos en todos estos condicionantes previos, pretendemos plantear algunos retos pendientes para su desarrollo masivo o, al menos, para que pueda considerarse como un uso habitual en la práctica periodística de una forma complementaria a la visualización de datos. En suma, este artículo pretende responder, al menos, a estos objetivos:

  • Efectuar una aproximación general al concepto de sonificación.

  • Mostrar algunos ejemplos concretos de sonificaciones, con interés en aquellas empleadas con fines científicos, para personas con discapacidad visual y, basadas en las anteriores, también con fines periodísticos.

  • Ofrecer una lista mínima de herramientas más habituales para crear sonificaciones, con el fin de animar a su uso para la creación de contenidos periodísticos.

  • Plantear cuáles son los retos actuales de la sonificación periodística y compararlos con los de la sonificación en otros campos.

2. Marco teórico

Tanto los trabajos más conceptuales como las aplicaciones prácticas de la sonorización muestran múltiples formas de entender qué es una sonificación, cuáles son sus características, que disciplinas podrían estar implicadas, y qué elementos han de tenerse en cuenta para crearlas. Un ejemplo de la interrelación entre disciplinas y técnicas relacionadas con la sonificación se muestra en la figura 1.

Figura 1 El círculo interdisciplinario de la sonificación 

De forma muy sintética, la sonificación ha sido un campo que ha oscilado entre aquellos que la han percibido como “arte”, y aquellos que la han estudiado desde alguna de las posibles ramas científicas y técnicas: desde la psicología a la ingeniería.

Entre aquellos más próximos al mundo del arte, algunos han asociado la sonificación especialmente al uso de música para representar datos (Corey, 2015; Smith, 2019; Geere y Quick, 2020). No obstante, esta concepción no es compartida ni mucho menos de forma genérica (Scaletti, 2018). Para entender el porqué, es necesario tener en cuenta algunos conceptos básicos sobre qué elementos básicos forman parte de una sonificación, cómo pueden representarse datos mediante sonidos, y cuáles son las técnicas desarrolladas usando esos elementos y técnicas.

Todo sonido tiene al menos tres parámetros físicos: la frecuencia, la amplitud y el timbre (Dierssen Sotos, 2019). La frecuencia, o altura, está determinada por la forma en que se desplazan las ondas sonoras, y determina sonidos más agudos o más graves. Se mide en Hz, en un rango entre 20Hz, que es el sonido más grave percibible por el ser humano, y 20kHz, que es el sonido más agudo (Ramsier y Rauscheker, 2017). Las notas musicales son una forma simplificada de representar frecuencias. Cada nota es un tono, y cada escala, una serie de tonos que van de más a menos agudo.

La amplitud o intensidad es la otra característica básica de toda onda sonora. El rango, en este caso está entre los 0dB y los 120-130dB (Piñeiro-Otero, 2020). El tercer gran elemento sonoro es el timbre. Su definición es algo más compleja: “atributo de sensación auditiva que permite distinguir a dos sonidos, con una misma altura y sonoridad, como diferentes” (Neuhoff, 2011). Es decir, dos instrumentos musicales que interpreten las mismas notas y con la misma sonoridad suenan diferente porque tienen un timbre distinto. También somos capaces de detectar la ubicación, es decir, si los sonidos provienen de una fuente más o menos lejana, o si están más a la izquierda, o a la derecha, o desde un ángulo concreto, y de una forma que varía respecto a esa misma percepción de forma visual (Goldstein y Cacciamani, 2022).

La mayoría de las sonificaciones tratan de usar uno o varios de estos parámetros para representar variaciones de datos. Pero, también, ha de tenerse en cuenta cómo los seres humanos percibimos esas variaciones: son los llamados parámetros psicoacústicos (Ferguson y Brewster, 2017). Un caso muy simplificado: las personas pueden percibir dos sonidos, con la misma intensidad física real, de forma diferente, dependiendo de su frecuencia: es lo que se define como sonoridad (Plack, 2018). Y, además, ajustar más de un parámetro sonoro (por ejemplo, frecuencia y amplitud) tiene un efecto mucho mayor que si solo se ajusta uno de esos parámetros por separado (Walker y Kramer, 2021).

Es decir, los seres humanos no perciben sonidos de forma aislada, sino combinando unos sonidos con otros. Por ejemplo, percibimos distintos ritmos, o combinaciones de sonidos con distintas duraciones, y también si esos sonidos son ordenados de una manera distinta.

No debe olvidarse, además, que los sonidos poseen numerosos factores emotivos y culturales. Roddy y Bridges (2020) señalan como las personas tienden a percibir sonidos basándose en metáforas o representaciones culturales previamente asociadas a los mismos, y que esas representaciones pueden cambiar culturalmente entre sociedades.

2.1. Cómo representar datos mediante sonidos

Basándose en los parámetros sonoros citados, existen algunos factores a tener en cuenta cuando se crean sonificaciones (Walker y Nees, 2011), incluyendo al menos: cómo se representan los datos mediante sonidos, lo que se conoce como mapeo; cómo se representan los incrementos o disminuciones de datos, es decir, su polaridad; qué escalas se pueden utilizar; por último, cómo asignar contexto a los datos sonoros.

El mapeo es la asociación que se emplea para representar sonidos mediante datos, es decir, la decisión sobre qué parámetro o parámetros sonoros, ya sean físicos o psicoacústicos, se usan para representar cada serie de datos. Todo mapeo requiere al menos considerar:

  • Cómo se distribuyen los datos que queremos representar: si se trata de datos continuos, es decir, de aquellos que siguen alguna pauta: aumentan o disminuyen consecutivamente, como una secuencia de temperaturas durante un año; o bien, de datos discretos, cuyos valores no tienen que ser consecutivos: por ejemplo, los datos de paro de distintos países.

  • Cuántas series de datos vamos a representar: si se trata de una sola serie de datos, como los relativos a una misma variable en un periodo de tiempo (la temperatura de un mismo lugar en días sucesivos) o bien, de varias series de datos.

Por ejemplo: podrían usarse dos timbres diferentes para dos series de datos que se representen simultáneamente, ya que el oído humano distingue muy bien varios timbres a la vez.

Otro aspecto fundamental para representar datos mediante sonidos es la polaridad: si es positiva, un aumento de valores se representa mediante un aumento del parámetro sonoro; por ejemplo, a valores más altos, frecuencias sonoras más altas. Una polaridad negativa será justo a la inversa: valores más altos se representarán mediante parámetros sonoros más bajos.

La polaridad no es un detalle menor. Por ejemplo, algunos estudios (Walker y Mauney, 2010) muestran que un aumento de un parámetro sonoro (como la frecuencia) es percibida de distinta manera en personas con visión y en personas con discapacidad visual. Estas últimas percibían aumentos de frecuencia como disminuciones de valor.

El tercer aspecto importante para representar datos con sonidos es la escala. Es decir, no solo se trata de elegir un parámetro sonoro, como la frecuencia, para representar datos, sino decidir cuánto hay de cambiar ese parámetro para mostrar un cambio en los datos.

Un ejemplo, usado en sismología, es la llamada “manipulación del eje de tiempo”: si se quiere representar una serie muy larga de datos, que se refieren a ondas sísmicas moviéndose durante un periodo muy largo, se puede aumentar la frecuencia sonora con la que se representan esas ondas, para acelerar también su percepción. Y viceversa, se puede ralentizar un fragmento concreto de una serie de datos, convertido en sonidos, para hacer más fácil la percepción de posibles variaciones (Dombois y Eckel, 2011).

Asimismo, uno de los mayores retos de las sonificaciones es la creación de contexto para entender los datos representados por sonidos, esto es, el equivalente al uso de marcas, ejes o textos explicativos que sirvan para explicar el marco específico en el que se muestran los datos: lo que, en visualización de datos (Cairo, 2019), se denomina scaffolding o “armazón”.

En este caso, una opción es el uso de sonidos diferentes para representar los datos y el armazón: desde sonidos continuos, para marcar cómo se avanza en una serie temporal, hasta el uso de palabras para describir categorías temáticas, como años, países, etc. Más allá, sonificaciones recientes han empleado textos explicativos, hablados y escritos, que describen previamente no solo el armazón, sino el uso de cada una de las herramientas sonoras que se van a emplear, sus escalas, su polaridad, etc. (Geere y Quick, 2021; Ryssdal y Fam, 2020).

Sobre cómo combinar varios de estos parámetros, Geere y Quick (2021) dan algunas pautas básicas desde su propia experiencia como creadores de sonificaciones periodísticas. La tonalidad, es decir, la frecuencia del sonido, y las variaciones de timbre son los dos parámetros más sencillos de entender y, por lo tanto, de usar. Como ejemplos, es posible usar notas sucesivamente más altas, es decir, más agudas, o más bajas para series de datos continuos que varían.

Existen decenas de estudios que afirman emplear unos u otros parámetros para hacer mapeos de datos (Wang et al., 2022). A pesar de ello, aún no se ha llegado a un consenso que permita formalizar equivalencias concretas, y muchos de los autores mencionados señalan que es preciso realizar pruebas hasta encontrar la forma más acertada de realizar este mapeo para cada caso concreto.

2.2. Técnicas para crear sonificaciones

Existen numerosas técnicas para mapear datos en sonidos. Una clasificación detallada (Worrall, 2019) las distingue según el tipo de datos que se han de representar: si se trata de series de datos discretos, o bien, si son continuos. Debe tenerse en cuenta que una sonificación puede emplear más de una de estas técnicas al mismo tiempo.

Cuando estos datos son discretos, no importa realmente su orden, y cada dato se distingue claramente de los demás. Algunas técnicas para datos discretos incluyen:

  • los avisos auditivos, empleados para crear alarmas o avisos;

  • los iconos auditivos, es decir, sonidos del mundo real, que suelen emplearse sobre todo combinados con interfaces visuales. Un ejemplo clásico es el sonido de un teléfono tradicional usado en los teléfonos móviles para avisar de una llamada. Se llaman “iconos” porque, de hecho, equivalen a iconos visuales.

  • los earcons, similares a los iconos auditivos, pero diferentes porque se trata de sonidos sintetizados por ordenador. Es decir, debe aprenderse su significado antes de usarlo, no son intuitivos (McGookin y Brewster, 2011). Un arquetipo sería el sonido personalizado, que avisa de la llegada de un correo electrónico en un ordenador o un móvil, que puede ser elegido entre varias opciones.

  • los ruidos hablados, que son sonidos vocales desfigurados.

  • los morphocons, o series de sonidos sintetizados, pero relacionados entre sí porque tienen elementos comunes, y también, diferencias (de tono, de duración) que les dan un significado: forman parte de una gramática sonora entre sí.

Cuando se trata de representar datos continuos, es decir, que funcionan como una secuencia, las sonificaciones están pensadas sobre todo para representar datos en una serie temporal, mostrar el alcance de máximos o mínimos, distinguir entre niveles en una escala, etc. (Worrall, 2019).

Algunas técnicas para sonificar datos continuos son la audificación, el mapeo paramétrico y la sonificación basada en modelos. La audificación es útil cuando puede haber una correlación directa entre las variaciones de los datos y las posibles variaciones de los sonidos. El caso más sencillo, aunque no el único, es que esa serie de datos represente ondas, ya que el sonido en sí también se representa mediante ondas (Dombois y Eckel, 2011), como pasa con las ondas sísmicas, los latidos del corazón, etc.

El mapeo paramétrico (PMS) es probablemente la técnica de sonificación más usada y conocida. Consiste en la representación de varias series de datos, asociando parámetros de los datos a parámetros auditivos: frecuencia, timbre, intensidad, ritmo, espacialidad, etc. (Grond y Berger, 2011). El arquetipo de PMS son los llamados gráficos auditivos (auditory graphs), es decir, la representación de un posible gráfico visual, pero usando parámetros sonoros (por ejemplo, la frecuencia) para representar datos (en lugar de, por ejemplo, líneas). Esta forma de representación puede ser utilizada para mostrar datos multivariantes, como series de datos (Zhao et al., 2008).

La sonificación basada en modelos (SBM) constituye un grado de mayor complejidad (Hermann, 2011a). Esta técnica permite mucha mayor interactividad entre los usuarios y los datos: el usuario puede definir cómo se representa cada uno de los parámetros, y con qué rangos. A cambio, es mucho más compleja de diseñar y, también, de manejar.

Varias de las técnicas anteriores pueden ser empleadas conjuntamente. Por ejemplo, se pueden representar diferentes series de datos mediante un PMS, y añadir earcons como elementos explicativos, como la referencia a un nivel, para señalar cuándo se sobrepasa este.

3. Metodología

Para cumplir con los objetivos propuestos, se realizó una revisión bibliográfica inicial sobre publicaciones científicas en materia de sonificación a partir de las búsquedas en bases de datos científicas (Web of Science, Scopus y Google Scholar): en primer lugar, mediante una búsqueda simple por “sonification” y “sonificación”, con el fin de responder a los dos primeros objetivos, la aproximación al concepto del sonificación, la revisión de los campos en los que se aplicaba esta teoría y la búsqueda de ejemplos concretos al respecto.

Como detalle, la búsqueda en Google Scholar, a finales de diciembre de 2022, arroja menos de 3000 resultados al buscar por “sonification”, y menos de 100 si se realiza una búsqueda por “sonificación”. Números aún menores se han obtenido en las otras fuentes consultadas.

La revisión de los resultados se ha realizado desde 1992 hasta la actualidad. Este año de inicio coincide con el principal congreso específico sobre sonificación, el International Conference on Auditory Display, que se ha celebrado anualmente desde entonces. Las actas de este congreso, que han sido revisadas detenidamente, han sido la fuente principal para la localización de las herramientas sobre sonificación descritas en un apartado posterior.

También son reseñables algunas monografías que tratan de establecer las bases teóricas de la sonificación: en particular, The Sonification Handbook, editado por Hermann, Hunt y Neuhoff (2011), uno de los más referenciados en publicaciones científicas sobre el tema desde entonces, así como el más reciente Sonification Design: From Data to Intelligible Soundfields, publicado por Worrall (2019).

En cuanto a la sonificación específicamente aplicada al periodismo, una segunda estrategia de búsqueda ha incluido la búsqueda genérica de textos académicos sobre “sonification” combinadas con términos asociados al periodismo, como “journalism”, “news”, “news report”, “feature” “media”, “radio”, “press”, “podcast” y “podcasting”, así como su equivalente en castellano, usando “sonificación” combinada con “periodismo”, “noticias”, “reportajes”, “medios de comunicación”, “prensa”, “radio” y “podcast”. En todos ellos, el número de resultados ha sido muy bajo y, en algunos casos, casi nulo.

En tercer lugar, se han realizado estas mismas búsquedas tanto en medios periodísticos, como revistas y sitios web especializados en periodismo, así como a partir de referencias obtenidas en la búsqueda inicial sobre sonificación. En este caso, algunos periodistas de datos han sido quienes han mostrado interés tanto en la creación de ejemplos prácticos como en la definición de nuevas herramientas, aún de forma experimental.

De todas las fuentes empleadas, destaca el repositorio Data Sonification Archive (Lenzi et al. 2021), que incluye ejemplos, no solo periodísticos, de sonificaciones reales en todo el mundo. Además, es notable la reciente iniciativa Loud Numbers (Geere and Quick, 2021), llevada a cabo por periodistas de datos. Esta propuesta ha estado combinando en los últimos dos años reflexiones teóricas sobre esta técnica, la generación de sonificaciones, disponibles en una página web, así como una conferencia, The Loud Numbers Sonification Festival (Loud Numbers, 2021), que reunió a una decena de profesionales, periodísticos y de otras disciplinas, para presentar experimentaciones reales.

A partir de estos resultados, se ha realizado un análisis, en primer lugar, de productos que incluyen total o parcialmente sonificaciones en diferentes disciplinas, incluido el periodismo; y posteriormente, se presenta una panorámica sobre aplicaciones y programas informáticos empleados para realizar estas sonorizaciones.

4. Resultados

Las prácticas sobre sonificación aplicadas al periodismo están basadas fundamentalmente sobre las experiencias previas aplicadas en dos ámbitos inicialmente ajenos: la comunicación de datos científicos y la representación de conjuntos de datos para personas con discapacidad visual. La sonificación periodística, aún en sus primeros pasos, ha tratado de imitar ambas prácticas comunicativas, por lo que no puede entenderse sin ellas. Más aún, algunas de las sonificaciones que no han sido específicamente concebidas con fines periodísticos sí contienen elementos de actualidad informativa.

Las aplicaciones científicas de la sonificación, pioneras cronológicamente, resultan de interés, sobre todo, para mostrar cómo se han representado grandes volúmenes de datos mediante sonidos. Sus propuestas son de interés, además de por resultar pioneras, porque pueden servir de inspiración para su uso periodístico. Asimismo, las sonificaciones pensadas para personas con discapacidad visual, desarrolladas al menos desde los inicios del siglo XXI, incluyen elementos aplicables para contenidos periodísticos en medios sonoros, como la radio o los podcast.

Por estas razones, se exponen a continuación algunos ejemplos de sonificaciones científicas, así como aplicadas a personas con dispacacidad visual, que permitan entender una posterior revisión sobre sonificaciones expresamente periodísticas. En todos los casos, se pretenden mostrar prácticas que resulten especialmente interesantes, si bien no se puede considerar esta muestra como exhaustiva.

Varias propuestas relevantes en los tres campos, con aplicaciones que puedan considerarse como de valor periodístico (ya sean específicas en el ámbito, o bien, desarrolladas en otros) se muestran en la figura 2.

Figura 2 Cronograma de sonificaciones (1992-2022) 

A continuación, se muestra una explicación detallada de las mismas, así como una revisión de las principales herramientas y programas requeridos para crear estas y otras sonificaciones.

4.1. Sonificación aplicada a la ciencia

Uno de los principales usos de la sonificación científica es la transformación de los resultados de sus investigaciones en “imágenes auditivas”, en lugar de visuales (Kaper et al., 1999). Estos autores argumentan que, a pesar de que la visión es considerada como nuestro sentido principal, la sonificación muchas veces es imprescindible para descubrir estructuras que se encuentran ocultas ante la visión. En definitiva, esta es una de las funciones primordiales de las representaciones sonoras, llegar a explicar parámetros que no se percibían de manera visual e incluso detectar cambios repentinos (Beans, 2017). Mihalas et al. (2018) explica esta cualidad porque la recepción visual es enfocada, mientras que la recepción auditiva ofrece una atención distribuida, y por eso percibimos mejor un sonido interrumpido o un cambio de intensidad.

Uno de los ámbitos más destacados de sonificación científica son las investigaciones espaciales. Ya en 2016, el profesor de astrofísica del MIT Scott Hughes publicó una sonificación de dos agujeros negros en colisión. Por su parte, la NASA ha convertido en los últimos años sus datos de imágenes a producciones sonoras (Alexander et al., 2014; Madrid Deep Space Communications Complex, 2020).

Esta agencia espacial ha traducido a sonidos datos astronómicos recuperados por los telescopios espaciales Hubble y Spitzer y por el Observatorio de rayos X Chandra (INTA-NASA, 2020), convirtiendo los datos de las nubes de gas y polvo, la intensidad de la luz y los objetos espaciales en sonido, en vez de en imágenes. Los objetos son representados por un tono más alto y la intensidad de la luz es descrita mediante el volumen. Las estrellas suenan como tonos individuales. En el caso de la sonificación de la Nebulosa del Cangrejo, cada onda de luz se asoció con un instrumento musical: las luces recibidas por el Observatorio de rayos X de Chandra en instrumentos musicales de latón; los datos recuperados por el telescopio Spitzer, en instrumentos de viento de madera; y los del telescopio Hubble, en instrumentos de cuerda. Estos proyectos forman parte del Universe of Learning Program (UoL), de la NASA, cuyo objetivo es “incorporar el contenido científico de la agencia en un entorno de aprendizaje de manera efectiva y eficiente para estudiantes de todas las edades”, incluidos los públicos con discapacidad visual.

También se ha usado la sonificación en el campo de la biología. La bióloga Mary Anne Clark y el artista de música electrónica John Dunn representaron en cuatro colores los 20 aminoácidos que componen una proteína para después asignarles la escala de Do mayor. Estas transformaciones sonoras resultaron muy útiles para detectar en los años 90 los cambios menores de las proteínas. Dunn y Clark (1999) quisieron además justificar de esta forma el uso artístico de la ciencia. Para ellos, al igual que los aminoácidos no se encuentran colocados por azar, tampoco lo están las notas en una partitura. Los investigadores explicaron la similitud del ADN y la música, ya que ambos contienen una secuencia lineal de elementos, que es precisamente lo que marca su personalidad, la combinación de estos elementos. Este canto al principio de la vida se plasmó en un CD, Life Music, que publicaron en 1999.

Estudios anteriores habían destacado ya la importancia de la sonificación para la investigación del ADN, como los resultados del Proyecto Genoma Humano presentados como música (sonificación) por el médico genetista Charles Strom y el artista Peter Gena en el Sixth International Symposium on Electronic Art de 1995, en Montreal (Gena y Strom, 2001). Sin embargo, en la actualidad, Temple (2017) resalta su preocupación de que esta técnica no sea reconocida como una herramienta más de la investigación, cuando algunas propiedades de la secuencia del ADN solamente pueden percibirse mediante las pantallas auditivas, y lamenta que en muchos casos sea considerada como “una rareza interesante”.

También, en el terreno de la Física y Biofísica se utiliza la sonificación en conexión con la física computacional, mediante aplicaciones móviles que generan sonido ambiental obtenido de los datos de la respiración hasta la sonificación del latido del corazón (Chen et al., 2015; Vogt et al., 2008). Y, en zoología, muchas sonificaciones representan datos de series de tiempo, como las pautas seguidas por los salmones durante su migración. El impacto del ser humano en el medio ambiente ha provocado que estos peces hayan modificado sus patrones de migración en el río Snake de Idaho. Para conocer las nuevas rutinas de comportamiento, los investigadores sonificaron los otoliths (un registro químico de su movimiento). Tras la dificultad del análisis de estos datos de forma visual, comprendieron que a través de los sonidos podrían explorar mejor un campo de datos tan variado (Hegg et al., 2018).

Igualmente, algunos geofísicos señalan en la sonificación unas cualidades diferentes a la visualización de imágenes, debido a la capacidad del oído de discriminar timbres y tonos. Indican que la sonificación puede representar variaciones diminutas de datos que a través de la imagen no se perciben. En definitiva, los autores valoran que las representaciones sónicas cuentan con la posibilidad de describir patrones a través del sonido difícilmente perceptibles de otra manera. Por ejemplo, con la transformación de los movimientos sísmicos del volcán Etna, en Italia, y del Tungurahua, en Ecuador, en diferentes partituras de música (Avanzo et al., 2010).

Otro campo donde existe un posible potencial para la sonificación es la educación, y especialmente, la educación científica. De hecho, diferentes docentes han destacado las cualidades de la música para transmitir conocimientos. (Sawe et al., 2020) recomiendan la utilización de la sonificación de datos para vencer la brecha de la alfabetización científica, ya que consideran que de esta manera se transmite de forma más atractiva las operaciones elementales de la aritmética.

4.2. Sonificación para personas con discapacidad visual

La sonificación se ofrece también como un recurso claramente útil para personas con discapacidad visual, sobre todo, con fines educativos. Un caso reseñable es la iniciativa de Victor Wong, estudiante ciego, graduado en Meteorología en la Universidad de Cornell, que diseñó un software que traducía los colores de un mapa meteorológico en 88 notas de piano. Se basaba en escuchar la progresión de colores (Oberst, 2005).

También resulta interesante la iniciativa The Georgia Tech Sonification Lab, bajo la dirección del profesor Bruce Walker, que lleva años explorando la representación sonora de la información para la enseñanza de los discapacitados visuales a través de los gráficos auditivos (Walker y Mauney, 2010). La visualización acústica de los números utiliza parámetros como la frecuencia (tono): cuanto más alta, representa números más altos, y cuanto más baja, números inferiores. El laboratorio ha puesto en marcha diferentes proyectos de exhibición sonora para ayudar a las personas con necesidades visuales, incluyendo la interpretación de los índices de la bolsa de valores mediante sonidos naturales, como la lluvia, los truenos o el canto de los pájaros (Mauney y Walker, 2004). Actualmente, ha desarrollado una herramienta de gráficos auditivos en línea (Cantrell, 2021; Walker y Moseng, 2020).

Siguiendo esta línea, la campaña Hear the Blind Spot, iniciada por la ONG Together de Etiopía, en 2019, utilizó la sonificación de datos para resolver el problema de la exclusión digital de las personas con discapacidad visual. Una campaña pionera porque, por primera vez, personas con discapacidad visual y videntes se unen para recibir información y romper de esta forma la brecha digital existente entre los dos (Backer, 2020). La propuesta fue apoyada por Data4Change, una organización especializada en proyectos de periodismo de datos que ayudan a transformar los datos en contenido accesible y atractivo.

La mayoría de los casos de sonificación para los discapacitados visuales se encuentran destinados a solventar problemas asistenciales de la vida diaria, y a facilitar la consulta y análisis de datos geográficos y científicos. No obstante, estos proyectos siguen siendo aún exploraciones, o están concentrados en pequeñas muestras de usuarios (Sawe et al., 2020).

4.3. Ejemplos de sonificación aplicada al periodismo

El uso de la sonificación para crear contenidos periodísticos se ha caracterizado por varios elementos comunes. Por un lado, sus principales promotores son o han sido periodistas de datos. Ello ha supuesto la existencia de dos corrientes principales: una, que trata de enfocarse sobre pequeñas sonificaciones, representando apenas unas pocas series de datos, que se desarrollan en un tiempo concreto. Por otra parte, una segunda corriente ha tratado de ir más allá de las posibles limitaciones que las visualizaciones suponen para representar grandes cantidades de datos. En este caso, se ha tratado de aprovechar el uso combinado de varios parámetros sonoros para mostrar secuencias de datos más complejas.

Otro elemento compartido es que, en la mayoría de los casos, sus contenidos tienen un marcado carácter emocional, más cercano en muchos casos al contenido artístico que a su empleo con fines meramente cuantitativos: se pretende ir un paso más allá, y tratar de que la audiencia no solo reflexione a partir de los datos, sino que, además, se conmueva con sus resultados. Es muy posible que esa sea la causa o la razón de que, en su mayoría, hayan optado por usar la música como elemento sonoro en la mayoría de los casos.

Además, casi todos los trabajos son hasta ahora experimentales e, incluso, cuando los resultados han sido audios de corta duración, siempre requieren una gran cantidad de tiempo y de trabajo.

Por último, buena parte de las sonorizaciones que podemos considerar como periodísticas, y especialmente, aquellas más complejas, pertenecen a un ámbito que está a medio camino entre el periodismo de datos y, yendo un paso más allá, el activismo de datos, en sintonía con algunos de los ejemplos de sonificación que no son estrictamente periodísticos.

Una de las primeras audificaciones con usos similares a los que pueden aplicarse en contenidos periodísticos es Egypt Building Collapses (Tactical Technology Collective, 2014), que muestra algunas de las razones por las que los edificios se desplomaron súbitamente en Egipto durante 2013, a partir de datos oficiales del propio país. Para ello, emplea iconos auditivos como diferentes sonidos similares a los de derribos de edificios. Aunque no es únicamente un recurso sonoro, ya que incluye también visualizaciones, el sonido potencia la representación y permite incluso su comprensión sin la parte visual.

Varios grandes medios, con recursos para la experimentación, han probado a crear pequeñas sonificaciones puntuales basadas en pocas series de datos, para probar en qué medida podían emplear esta forma de expresión para un público masivo. Estas sonificaciones han incluido explicaciones concretas para contextualizar las series de sonidos que han empleado.

Así ocurrió con la BBC, que realizó pequeñas sonificaciones en su podcast Audiographs, con datos de temas de actualidad, como el desempleo o la migración mexicana (BBC World Service, 2022). Según su definición en su página web, “las audiografías toman estadísticas y las transforman en sonido que representa una noticia”. Un ejemplo interesante, por la temática, es el análisis del tenis de Novak Djokovic a través del sonido a la hora de golpear la bola.

También Financial Times ha realizado algún ejemplo de sonificación de contenidos económicos, como Sonification: turning the yield curve into music (Smith, 2019). En este caso, también ha empleado explicaciones sonoras, e incluso gráficos visuales, aunque el elemento principal para representar los datos ha sido el sonido.

Algo más complejo fue un proyecto de visualización del New York Times que utilizó el sonido de los disparos del tiroteo de Las Vegas en un gráfico de visualización de datos para comparar las diferentes armas utilizadas (Buchanan et al., 2017). Sin duda, ocupa el rol de complemento informativo de una noticia y, más aún, conecta directamente con el periodismo sensorial. En esta misma línea, se incluye un reportaje en el que el periodista Petr Kocí tomaba el pulso, los latidos, etc., de un corredor de maratón y entrevistaba a un médico deportivo sobre la carrera realizada (Corey et al., 2019). Se trata, en estos dos casos, de lo que podríamos llamar sonificaciones híbridas.

El productor de radio Ike Sriskandarajah y el periodista de datos Joe Wertz realizaron una sonificación para la organización Reveal sobre los terremotos ocurridos en Oklahoma desde 2000 hasta 2015: The Oklahoma Shakes. Para lograrlo, construyeron una biblioteca basada en la tecnología MIDI, que bautizaron con el nombre MIDITime, que transformaba los datos en valores como el tono, la velocidad y duración. Su intención fue dar luz a través del sonido, divulgar el análisis de los datos de los terremotos de Oklahoma que revelaban que en épocas pasadas la frecuencia de terremotos era semestral y, en la actualidad, era diaria (Corey, 2015; Lenzi y Ciuccarelli, 2020). Con esta sonificación se pretendía alertar de la posible sismicidad inducida en este lugar.

En la línea de visualizaciones sonoras, Brian Foo (2015a) cuenta con ejemplos extraordinarios, agrupados en su proyecto Data Driven DJ. Uno de estos casos es la sonificación de la desigualdad de los ingresos en Nueva York, en 2015, a través de un viaje por la línea 2 del Metro y las diferentes estaciones de los boroughs o distritos de Brooklyn, Manhattan y el Bronx (Foo, 2015b). El artista neoyorquino utilizó los datos de ingresos de los ciudadanos obtenidos en el censo de Estados Unidos y llevó a cabo una composición sonora con diferentes instrumentos, interpretando con mayor o menor intensidad, según los ingresos, el recorrido por las tres estaciones de Metro que forman parte de esa línea 2.

Otro ejemplo de visualización sonora de datos de Brian Foo es el análisis de la diversidad en el cine de Hollywood (Foo, 2015b). Para la composición se cuantificaron a los protagonistas de las películas más taquilleras, según género (mujer y hombre) y raza (caucasiana y negra). La sonificación mostró la poca diversidad existente en Hollywood. Las sonorizaciones de Foo, aunque están pensadas como sonorizaciones puras, incluyen también una gran explicación textual y, además, alguna pequeña animación para acompañar cada una de ellas, lo que plantea múltiples formas de aproximarse a ellas, dependiendo de si es posible visualizar o no esas explicaciones adicionales.

También resultó relevante la sonificación sobre la violencia contra la mujer en India, con datos obtenidos en el portal Open Data del Gobierno de India sobre nueve tipos de delitos contra las mujeres de 32 estados del país. En esta sonificación, se realiza una evolución desde 2001 hasta 2012, de tal forma que el oyente puede escuchar distintas comparativas de las tasas de criminalidad a través de la intensidad de los gritos de las mujeres (Nath, 2020). Además, se llevó a cabo un estudio sobre la percepción de las sonificaciones por parte de veinte personas (13 hombres y 7 mujeres de entre 19 a 24 años estudiantes de Ingeniería), concluyendo que la sonificación de datos en estudios sociales y humanos puede resultar una herramienta muy valiosa debido a la intensa carga emotiva que consigue crear una atmósfera sonora del miedo real que sienten las mujeres en la India.

Bajo este sentimiento activista, la periodista de investigación Sophie Chou, del programa de la radio pública estadounidense The World, construyó en 2017 una sonificación de datos sobre las víctimas de tiroteos masivos en EE.UU. (Chou, 2017). Chou reunió los datos de los tiroteos masivos ocurridos en EE.UU. y convirtió su frecuencia en notas de música para piano. De esta forma, los oyentes podían apreciar o sentir el impacto de tales incidentes. Convirtió cada tiroteo en una nota con la intensidad proporcional al número de muertes, con el fin de conseguir un impacto más emocional que el ofrecido en un gráfico visual. Un año más tarde, pidió al músico Joshua Clausen que compusiera un Réquiem con estos datos, composición que fue interpretada junto a The Concordia College Choir en Public Radio International en marzo de 2018 (Clausen, 2018).

En este tono emotivo, se incluyen sonificaciones que pretenden ser un homenaje a los protagonistas de los datos, especialmente, cuando son víctimas. Desde 2015, el galardonado Center for Investigative Reporting ha realizado algunas sonificaciones de datos desde la plataforma Reveal. En este sentido, resalta la sonificación de Jim Brigs y Michael Corey sobre las víctimas del tiroteo del club nocturno Orlando´s Pulse, en Florida (Briggs y Corey, 2016), que representa la vida de las 49 personas asesinadas mediante la fecha de su nacimiento. Su trabajo fue reconocido con un premio Emmy en 2016.

Un proyecto más reciente, Loud Numbers (Geere and Quick, 2021) tiene un carácter metacognitivo. Por una parte, el proyecto ha supuesto la producción de ocho sonificaciones de duración media, unos 15 minutos. Todas ellas están hechas mediante mapeo de parámetros, es decir, convirtiendo datos a sonidos, tanto usando series temporales como representando series de datos discretos.

Ese mapeo ha sido realizado siempre mediante instrumentos musicales, teniendo en cuenta, expresamente, aspectos estéticos. Su faceta más interesante es que se trata de un metaproyecto: es decir, que ha incluido la publicación de numerosos documentos en los que se reflexionaba sobre el proceso completo de producción, de más de un año. Inicialmente, los autores emplearon un boletín quincenal, por suscripción, para ir detallando los pasos, las decisiones e incluso los problemas encontrados. Al finalizar la producción, los dos autores del proyecto han realizado varias jornadas y presentaciones para intercambiar experiencias con otros sonificadores, periodistas o no. Asimismo, han realizado varias publicaciones teórico-prácticas con el fin de fomentar el desarrollo de la sonificación, sobre todo, en el campo periodístico.

En esta misma línea, teórico-práctica, que mezcla la producción de contenidos con la reflexión específica sobre sonificación aplicada a medios de comunicación, están los trabajos de Jordan Wirfs-Brock, también periodista de datos reconvertida en investigadora académica, cuya tesis doctoral en curso, específicamente sobre sonificación aplicada a contenidos radiofónicos, se desarrolla al tiempo que realiza presentaciones públicas sobre su trabajo (Wirfs-Brock, 2022).

Un ejemplo de sus propuestas son fragmentos para programas de radio en los que se insertaban sendas sonificaciones básicas (Ryssdall & Fam, 2020). Previamente, se incluye una explicación oral en la que se explican cada uno de los elementos empleados en la sonificación: las series de datos, los recursos sonoros, y cómo se entiende la combinación de ambos.

Más reciente es el proyecto Data-Driven Story: Wichita (Sonify, 2022a), que ha incluido la creación de tres podcasts usando sonificación para personas invidentes. Se trata de un proyecto desarrollado por Sonify (la empresa que mantiene actualmente Twotone, un software para hacer sonificación sencilla), originalmente financiado por Google News Lab, junto con un periódico local y una biblioteca pública (Sonify, 2022b).

4.4. Herramientas de sonificación

Para la generación de sonificaciones, se han desarrollado en las últimas décadas todo tipo de herramientas que han tratado de facilitar y normalizar la representación de datos mediante sonidos (Quinton et al., 2018).

Las primeras herramientas de sonificación aparecen en los años 80 y 90. Desde entonces, varios artículos han realizado análisis y descripciones de herramientas (Wilson y Lodha, 1996; Astheimer, 1993; Scaletti, 1994; Minghim y Forrest, 1995; Madhyastha y Redd, 1995; Bearman y Brown, 2012).

El desarrollo de herramientas de sonificación se ha centrado en tres áreas: en primer lugar, las herramientas que ayudan a los investigadores científicos para detectar patrones entre una cantidad excesiva de datos; las herramientas que mejoran la comprensión formativa de los usuarios con discapacidad visual (Monteiro, 2020); y, en los últimos años, una serie de herramientas para simplificar la creación de sonificaciones, tanto con fines activistas y artísticos como, en el caso del periodismo, para realizar algunas propuestas próximas al periodismo de datos.

En el caso de los grandes conjuntos de datos, el sonido permite detectar patrones y hallar excepciones de forma más útil, mediante herramientas de sonificación como la actual audiolyzR (Stone y Garrison, 2013), o JavaxSonify (Candey et al., 2006), desarrollada por la NASA para que el público en general pueda hacer sus propias sonificaciones con los datos del espacio.

Sobre la representación alternativa de datos mediante visualizaciones y sonorizaciones, un ejemplo de herramientas es iSonic (Zhao et al., 2008), que combinaba la visualización de datos de coropletas con la combinación sonora de tonos y timbres distintos para representar territorios y valores. Además, Sonification Studio (Cantrell et al., 2021) es una herramienta ya con dos décadas de vida que pretende centrarse en la facilidad de su uso.

Otras herramientas actualmente en uso son Supercollider (Wilson y Harkings, 2022), mantenida desde 1996, aunque requiere el uso de programación; Pure Data (2022), Sonification Workstation (Phillips y Cabrera, 2019), Jfugue (Monteiro, 2020) o TwoTone (Sonify, 2022b), que se presenta como una herramienta para personas que “no necesitan ningún conocimiento de programación”.

5. Discusión y conclusiones

La sonificación ha sido descrita en las últimas tres décadas como una herramienta de futuro para la representación de conjuntos de datos, de una forma complementaria, e incluso radicalmente innovadora, respecto a otras prácticas como la visualización de datos.

Su principal utilidad reconocida hasta el momento es la posibilidad de discriminar datos, de entre un gran conjunto, de una forma complementaria y diferente a la representación visual. En este sentido, se ha empleado con éxito en distintas iniciativas de comunicación científica y aplicadas a datos para discapacitados visuales, como se ha señalado en los epígrafes anteriores, aunque no de manera espontánea. Como resumen Sawe et al., (2020), los gráficos visuales “tradicionalmente se enseñan en los planes de estudio actuales, que se centran en muestras de menor tamaño”, es decir, en representaciones de datos más pequeñas, mientras que las sonificaciones “requieren habilidades interpretativas diferentes”, pero permiten percibir conjuntos de datos mayores.

La sonificación, como herramienta masiva para la representación de datos, se enfrenta no obstante a múltiples retos. Entre las visiones más radicales sobre su futuro se incluye, paradójicamente, uno de los principales líderes de la comunidad investigadora en sonificación, John G. Neuhoff, que resumía los principales retos pendientes en un provocador texto titulado, ¿Está la sonificación condenada al fracaso? En sus propias palabras:

…Los principales impedimentos para la adopción generalizada de la sonificación son las diferencias perceptivas fundamentales entre la visión y la audición; las grandes diferencias individuales en la percepción auditiva; los prejuicios musicales de los investigadores de la sonificación; la naturaleza interdisciplinaria de la investigación y el diseño de la sonificación. La mezcla histórica y a menudo indiscriminada de arte y ciencia en el diseño de las sonificaciones puede ser una de las causas principales de algunos de estos retos. (Neuhoff, 2019)

El primer problema a resolver parece ser la complejidad de la propia percepción sonora.

Cómo encontrar una solución no parece una tarea sencilla. Algunas propuestas más optimistas (Neuhoff, 2021) abogan por lo que llaman un “enfoque ecológico de la sonificación”, es decir, entender que no es realista descomponer la forma en la que las personas escuchan, analizando cada parámetro por separado: “tratar el cerebro como un ordenador que descodifica los sonidos no representa la forma en que las personas escuchan realmente. Las personas no escuchan el tono, el timbre y el tempo, sino que oyen sonidos holísticos” (Wirfs-Brock et al., 2021).

Tal pretensión, no obstante, no está exenta de dificultades: hay que tener en cuenta las experiencias individuales vividas y las asociaciones que cada oyente único aporta al acto de escuchar (Worrall, 2019). Se hace, pues, necesario pensar en que los usuarios aprendan a utilizar estas sonificaciones, más allá de los entornos de laboratorio en los que buena parte de los estudios se han desarrollado, y a que estas sonificaciones traten de resolver problemas reales.

Este problema en la propia raíz de la sonificación puede ser la causa de otros interrogantes a resolver. En el marco teórico se han mostrado numerosas técnicas de sonificación, pero incluso entre los propios investigadores especializados en ello, no parece haber un consenso sobre cuáles de esas técnicas pueden ser realmente aplicables de forma masiva. Ello ha supuesto que la sonificación no haya alcanzado aún el estatus de una práctica generalizada. Más aún, existe una notable controversia dentro de la propia comunidad de sonificadores: Lenzi (2018), una autora con experiencia tanto en la reflexión teórica como en la creación efectiva de sonificaciones, señala que algunos trabajos de sonificación son percibidos por los receptores como carentes de sentido. La reflexión de esta investigadora es especialmente pertinente porque ella administra uno de los directorios más detallados de sonificaciones en el mundo, el citado Data Sonification Archive.

Asimismo, la mayor parte de las prácticas realizadas sobre sonificación, específicamente periodísticas o no, son sobre todo experimentales: tanto en el uso de las técnicas, sobre las que no parece haber acuerdo, como en el uso de las herramientas, que son en muchos casos, y sobre todo en trabajos periodísticos, diseñadas ad hoc y empleadas en cada sonificación de forma independiente. Valga como ejemplo la iniciativa Loud Numbers, en las que cada una de las sonificaciones realizadas es una pieza creada con técnicas, estrategias y herramientas totalmente diferentes.

Este problema, el de la búsqueda de una aplicación empleada de forma masiva o killer app, es una pelea que no se ha resuelto en los últimos treinta años: “como comunidad investigadora, los profesionales de la sonificación luchan por conseguir ser relevantes para un público más amplio, como demuestra la eterna búsqueda de la killer app de la sonificación” (Wirfs-Brock et al., 2021).

Otro de los problemas que Neuhoff expresaba en su radical análisis sobre la sonificación, es su interdisciplinariedad entre “arte y ciencia”. En este sentido, se puede apreciar cómo la mayoría de las prácticas de sonificación periodística mencionadas apelan a una representación emotiva, más propia de los trabajos artísticos, primando tanto el uso de músicas como la creación de proyectos asociados a sonidos reales (disparos, derribos de edificios, sonidos de vagones de metro) que sean fácilmente identificables y generen una reacción de proximidad al oyente.

Es decir, los periodistas que han creado sonificaciones no han pretendido solo representar datos de una forma aséptica, sino además usar este tipo de representación para crear nuevas experiencias:

…la emoción es un área en la que la música y la sonificación tienen una clara ventaja sobre la visualización: ¿un gráfico de líneas del aumento de la temperatura global comunica el mismo pánico y la misma urgencia que una sonificación de 1.200 años de datos de temperatura y CO2? (Geere y Quick, 2021)

Este aspecto emotivo coincide con la idea del periodismo como una práctica narrativa, que no solo explica, sino que también puede ser usado para conmover, especialmente, cuando se emplean sonidos. A cambio, ¿cómo combinar la expresividad con la percepción de los significados que esos sonidos quieren representar, distinguiendo una sonificación de otro tipo de producción meramente musical?

Se abre aquí una propuesta, especialmente, por parte de los periodistas que han practicado con la sonificación, basada en dos premisas. La primera es la necesidad de que la posible audiencia aprenda a interpretar estas sonificaciones, con tiempo y paciencia:

…Los sistemas de mapeo de parámetros abstractos o complejos suelen tener que aprenderse antes de poder entenderlos. Los oyentes tienen que mantener una colección de mapeos de datos en su mente mientras escuchan la música, e incluso pueden tener que escuchar varias veces para entender completamente una sonificación. (Geere and Quick, 2020)

Y, en segundo lugar, dicho aprendizaje incluye la necesidad de que sea la propia comunidad de sonificadores la que también se plantee cómo guiar a los usuarios para que se acostumbren a este tipo de narraciones:

…el ser humano interpreta constantemente el significado del sonido: mientras caminamos por el arcén de una carretera, puede que oigamos un coche que viene detrás y sepamos exactamente cuándo tenemos que movernos; o tal vez podamos saber exactamente quién ha entrado por la puerta porque reconocemos el sonido de sus pasos. Pero no solemos hacer esto como un acto consciente, y no solemos hacerlo con datos abstractos. Podemos desarrollar estas habilidades, que los estudiosos del sonido denominan escucha analítica, con tiempo y esfuerzo. (Wirfs-Brock et al., 2021)

En este sentido, el de ayudar a la posible audiencia a entender las sonificaciones, hay quien aboga por emplear sonidos hablados como parte de la sonificación: al menos, como parte del “armazón”, es decir, de los elementos que sirven para contextualizar los datos de un gráfico, al contrario de lo que se había planteado durante décadas entre los teóricos de la sonificación: el uso únicamente de sonidos, pero no de la palabra hablada. De la misma manera que se emplean etiquetas o leyendas en los gráficos, se está extendiendo el uso de textos vocales que ayuden a entender la sonificación.

Otra línea de investigación aboga por la creación de sonificaciones “híbridas”, a medio camino entre el reportaje radiofónico tradicional y la sonificación pura, que tal vez sería más fácilmente de entender por audiencias más amplias (Wirfs-Brock et al., 2021). Se han mencionado antes algunos ejemplos concretos, como la emisión de un reportaje mediante sonificación en un podcast de gran audiencia (Ryssdal y Fam, 2020), aunque sigue sin quedar claro hasta qué punto esta experiencia ha mejorado o no la comprensión de los datos expresados mediante sonidos.

En conclusión, a la luz de los resultados obtenidos, la sonificación presenta grandes potencialidades para la representación de datos, de una manera distinta a la tradicionalmente visual, y especialmente, para la discriminación incluso de pequeñas diferencias en grandes volúmenes de datos, de forma complementaria, e incluso, mejorando esta misma utilidad respecto a la representación visual de esos datos.

No obstante, hereda también la gran complejidad de la percepción sonora, la necesidad de determinar qué tipos concretos de representaciones de datos pueden ser factibles únicamente mediante sonidos, el estado aún experimental de sus técnicas y de sus herramientas, la dificultad para conciliar los valores emotivos e informativos de sus productos, y la necesidad, una vez solucionados estos problemas, de formar a su posible audiencia en el uso de esta técnica. En la capacidad para responder a todos estos interrogantes está la clave para que la sonificación pueda ser, a futuro, una forma de representar datos que pueda funcionar con éxito, al menos, con usos y en entornos concretos.

Bibliografía

Alexander, R. L., O’Modhrain, S., Roberts, D. A., Gilbert, J. A., y Zurbuchen, T. H. (2014). The bird’s ear view of space physics: Audification as a tool for the spectral analysis of time series data. Journal of Geophysical Research: Space Physics 119(7), 5259-71. https://doi.org/10.1002/2014JA020025 [ Links ]

Astheimer, P. (1993). Sonification tools to supplement dataflow visualization. En P. Palamidese (Ed.) Scientific Visualization: Advanced Software Techniques (pp. 15-36). Ellis Horwood. [ Links ]

Avanzo, S., Barbera, R., De Mattia, F., La Rocca, G., Sorrentino, M., y Vicinanza, D. (2010). Data sonification of volcano seismograms and Sound/Timbre reconstruction of ancient musical instruments with Grid infrastructures. Procedia Computer Science 1(1), 397-406. https://doi.org/10.1016/j.procs.2010.04.043. [ Links ]

Backer, S. (1 de diciembre, 2020). Hear the Blind Spot: Visualizing Data for Those Who Can’t See. Nightingale Medium. https://medium.com/nightingale/hear-the-blind-spot-visualizing-data-for-those-whocant-see-b370e6ec0b9e. [ Links ]

BBC World Service. (2022). Audiographs: The news through sound. https://www.bbc.co.uk/programmes/p04188zt.Links ]

Beans, C. (2017). Musicians Join Scientists to Explore Data through Sound. Proceedings of the National Academy of Sciences 114 (18), 4563-65. https://doi.org/10.1073/pnas.1705325114. [ Links ]

Bearman, N. y Brown, E. (18 de junio, 2012). Who’s Sonifying Data and How Are They Doing It? A Comparison of ICAD and Other Venues since 2009 [Comunicación en congreso]. http://hdl.handle.net/1853/44402Links ]

Dierssen Sotos, M. (2019). El cerebro del artista. Shackleton Books. [ Links ]

Brazil, E. y Fernström, M. (2011). Auditory icons. En T. Hermann, A. Hunt y J. G. Neuhoff (Eds.) The Sonification Handbook (pp. 325-38). Logos Verlag. [ Links ]

Briggs, J. y Corey, M. (18 de junio, 2016). A Sonic Memorial to the Victims at Orlando’s Pulse Nightclub. [ Links ]

Reveal. http://revealnews.org/blog/a-sonic-memorial-to-the-victims-at-orlandos-pulse-nightclub/.Links ]

Buchanan, L., Huang, J. y Pearce, A. (5 de octubre, 2017). Nine Rounds a Second: How the Las Vegas Gunman Outfitted a Rifle to Fire Faster, New York Times. [ Links ]

Cairo, A. (2019). How Charts Lie: Getting Smarter about Visual Information. W.W. Norton. [ Links ]

Campo, A. (3 de febrero, 2007). Toward A Data Sonification Design Space Map [Comunicación en congreso]. Proceedings of the 13th International Conference on Auditory Display, Montreal, Canadá. https://iem. kug.ac.at/fileadmin/media/iem/altdaten/projekte/publications/paper/design/design.pdfLinks ]

Candey, R. M., Schertenleib, A. M. y Díaz-Merced, W. L. (20 de junio, 2006). Sonify: Sonification tool for space physics [Comunicación en congreso]. Georgia Institute of Technology (ICAD). http://hdl.handle.net/1853/50697Links ]

Cantrell, S., Bruce, J., Walker, N. y Moseng, O. (25 de junio, 2021). Highcharts Sonification Studio: An Online, Open-Source, Extensible, And Accessible Data Sonification Tool [Comunicación en congreso]. International Conference on Auditory Display (ICAD 2021), Virtual Event. https://icad2021.icad.org/wp-content/uploads/2021/06/ICAD_2021_5.pdf. [ Links ]

Chen, S., Bowers, J., y Durrant, A. (13 de julio, 2015). ‘Ambient walk’ a mobile application for mindful walking with sonification of biophysical data [Comunicación en congreso]. Proceedings of the 2015 British HCI Conference. New York, USA. https://dl.acm.org/doi/10.1145/2783446.2783630 [ Links ]

Chou, S. (2017). What does the death toll of gun violence sound like? https://sophiechou.com/post/171320495526/what-does-the-death-toll-of-gun-violence-sound. [ Links ]

Clausen, J. (2018). Choral. http://joshuaclausen.com/choral.Links ]

Corey, M., Humbert, A., Marcoux, J., Chou, S., Kocí, P. y McNally, P. (29 de mayo, 2019). Data in the air: a guide to producing data journalism for radio, DataJournalism.com. https://datajournalism.com/read/longreads/data-in-the-airLinks ]

Corey, M. (9 de julio, 2015). Turn your data into sound using our new MIDITime library. Reveal. https://revealnews.org/blog/turn-your-data-into-sound-using-our-new-miditime-library/. [ Links ]

Delogu, F., Palmiero, M., Federici, S., Plaisant, C., Zhao, H. y Belardinelli, O. (2010). Non-Visual Exploration of Geographic Maps: Does Sonification Help? Disability and Rehabilitation. Assistive Technology, 5 (3), 164-74. https://doi.org/10.3109/17483100903100277. [ Links ]

Dombois, F., y Eckel, G. (2011). Audification. En T. Hermann , A. Hunt y J. Neuhoff (Eds.), The Sonification Handbook (pp. 301-24). Logos Verlag. [ Links ]

Dunn, J., y Clark, M. A. (1999). Life Music: The Sonification of Proteins. Leonardo, 32 (1), 25-32. https://doi.org/10.1162/002409499552966. [ Links ]

Ferguson, J., y Brewster, S. (2017). Evaluation of psychoacoustic sound parameters for sonification [Comunicación en congreso]. ICMI ‘17: Proceedings of the 19th ACM International Conference on Multimodal Interaction. https://dl.acm.org/doi/10.1145/3136755.3136783. [ Links ]

Foo, B. (2015a). Data-Driven DJ. https://datadrivendj.com/. [ Links ]

Foo, B. (2015b). Data-Driven DJ / Two Trains. https://datadrivendj.com/tracks/subway/. [ Links ]

García-Riber, A. (23 de junio, 2019). Sonifigrapher: Sonified light curve synthesizer [Comunicación en congreso]. International Conference on Auditory Display, 52. http://hdl.handle.net/1853/61497.Links ]

Geere, D. y Quick, M. (8 de diciembre, 2020). Telling Stories With Data & Music. Nightingale Medium. https://medium.com/nightingale/telling-stories-with-data-music-f60ac0b5f1be. [ Links ]

Geere, D. y Quick, M. (2021). Loud Numbers a Data Sonification Podcast. https://www.loudnumbers.net. [ Links ]

Gena, P. y Strom, Ch. (2001). A Physiological Approach to DNA Music [Comunicación en congreso]. 4th Computers in Art and Design Education Conference, Glasgow. Escocia. https://www.petergena.com/docs/gena-strom-DNA.pdf [ Links ]

Georgia Tech. (2022). Actas de la International Conference on Auditory Display (1994-2022). https://smartech.gatech.edu/handle/1853/49750. [ Links ]

Grond, F. y Berger, J. (2011). Parameter Mapping Sonification. En T. Hermann , A. Hunt , J. G. Neuhoff (Eds.), The Sonification Handbook (pp. 363-97). Logos Verlag. [ Links ]

Goldstein, E.B. y Cacciamani, L. (2022). Sensation and Perception. Cengage. [ Links ]

Hegg, J., Middleton, J., Robertson, B. L. y Kennedy, B. P. (2018). The Sound of Migration: Exploring Data Sonification as a Means of Interpreting Multivariate Salmon Movement Datasets. Heliyon 4 (2). https://doi.org/10.1016/j.heliyon.2018.e00532. [ Links ]

Hermann, T., Hunt, A. y Neuhoff, J. G. (2011). The Sonification Handbook. Logos Verlag. [ Links ]

INTA-NASA. (2020). Sonificación de datos: una nueva tríada cósmica de sonido. Deep Space Network. https://www.mdscc.nasa.gov/Links ]

Kramer, G., Walker, B., Bonebright, T., Cook, P., Flowers, J.H., Miner, N. y Neuhoff, J. (1999). Sonification Report: Status of the Field and Research Agenda. University of Nebraska-Lincoln. https://digitalcommons.unl.edu/cgi/viewcontent.cgi?article=1443&context=psychfacpubLinks ]

Lenzi, S. (15 de noviembre, 2018). Data Sonification. A chronicle of a death foretold? [Comunicación en congreso]. IXXI École Normale Supérieur, Lyon. https://doi.org/10.13140/RG.2.2.15666.04800. [ Links ]

Lenzi, S., Ciuccarelli, P., Liu, H. y Hua, Y. (2021). Data Sonification Archive. https://sonification.design/. [ Links ]

Li, G. y Walker, B. N. (2019). Mixed Speech and Non-Speech Auditory Displays: Impacts of Design, Learning, and Individual Differences in Musical Engagement [Comunicación en congreso]. Georgia Institute of Technology. https://doi.org/10.21785/icad2019.019. [ Links ]

Loud Numbers (2021). The Loud Numbers Sonification Festival [Comunicación en congreso]. https://www.youtube.com/watch?v=X17zV8-4CdILinks ]

Madhyastha, T. M. y Reed, D. A. (1995). Data sonification: Do you see what I hear? IEEE Software 12 (2), 45-56. https://doi.org/10.1109/52.368264. [ Links ]

Madrid Deep Space Communications Complex. (1 de diciembre, 2020). Sonificación de datos: una nueva tríada cósmica de sonido. https://www.mdscc.nasa.gov/index.php/2020/12/01/sonificacion-de-datos-una-nueva- triada-cosmica-de-sonido/. [ Links ]

Mauney, L. y Walker, B. (2004). Creating Functional and Livable Soundscapes for Peripheral Monitoring of Dynamic Data. The Tenth International Conference on Auditory Display. http://hdl.handle.net/1853/50847. [ Links ]

McGookin, D. y Brewster, S. (2011). Earcons. En T. Hermann , A. Hunt , J. G. Neuhoff (Eds.), The Sonification Handbook, (pp. 339-61). Logos Verlag. [ Links ]

Mihalas, G., Andor, M., Tudor, A. y Paralescu, S. (2018). Potential use of sonification for scientific representation, Romanian Journal of Biophysics, 28, 45-57. [ Links ]

Minghim, R. y Forrest, A.R. (1995). An illustrated analysis of sonification for scientific visualization. Proceedings of IEEE Visualization ‘95, 110 -117. [ Links ]

Monteiro, V. (27 de noviembre, 2020). Data Sonification with JFugue and SpringMVC, Towards Data Science. https://towardsdatascience.com/listen-to-your-data-in-real-time-99b59d93031b. [ Links ]

Nath, S.S. (2020). Hear Her Fear: Data Sonification for Sensitizing Society on Crime Against Women in India [Comunicación en congreso]. IndiaHCI. https://arxiv.org/pdf/2009.14182.pdfLinks ]

Neuhoff, J. G. (2011). Perception, Cognition and Action in Auditory Displays. En T. Hermann, A. Neuhoff, J. G. Neuhoff (Eds.), The Sonification Handbook, (pp. 63-85). Logos Verlag. [ Links ]

Neuhoff, J. G. (2019). Is sonification doomed to fail? [Comunicación en congreso]. International Conference on Auditory Display. https://smartech.gatech.edu/handle/1853/61531. [ Links ]

Oberst, T. (2005). Blind graduate student ‘reads’ maps using CU software that converts color into sound. Cornell Chronicle. https://www.cis.rit.edu/people/faculty/ferwerda/press/cornell_chronicle_012705_pg5.pdf. [ Links ]

Phillips, S. y Cabrera, A. (2019). Sonification Workstation, 184-190. https://doi.org/10.21785/icad2019.056Links ]

Piñeiro-Otero, T. (2020). Sonidos que cuentan: la ambientación sonora en el audiovisual. Editorial UOC. [ Links ]

Plack, C. J. (2018). The Sense of Hearing. Routledge. [ Links ]

Pure Data (2022). Pure Data Community Site. https://puredata.info/. [ Links ]

Quinton, M., McGregor, I., y Benyon, D. (2018). Investigating effective methods of designing sonifications [Comunicación en congreso]. Georgia Institute of Technology. [ Links ]

Ramssier, M.A. y Rauschecker, J.P (2017). Primate Audition: Reception, Perception and Ecology. En Quam, R.M., Ramssier, M.A., Fay, R.F., Popper, A.N. Primate Hearing and Communication (pp. 47-78). [ Links ]

Rogers, S. (5 de marzo, 2019). Sonification: Make Beautiful Music with Your Data. Medium. https://medium.com/@smfrogers/sonification-make-beautiful-music-with-your-data-d8fd59b84f3f.Links ]

Roddy, S. y Bridges, B. (2020). Mapping for meaning: the embodied sonification listening model and its implications for the mapping problem in sonic information design. Journal on Multimodal User Interfaces, 14(2), 143-151. [ Links ]

Romo, T. (2018). MIDI: A Standard for Music in the Ever Changing Digital Age. https://digitalcommons.csumb.edu/caps_thes_all/368/. [ Links ]

Ryssdal, K., y Fam, A. (2020). What Sound Does a Volatile Stock Market Make? Marketplace. https://www.marketplace.org/2020/03/31/the-sounds-of-a-volatile-stock-market/. [ Links ]

Sawe, N., Chafe, Ch. y Treviño, J. (2020). Using Data Sonification to Overcome Science Literacy, Numeracy, and Visualization Barriers in Science Communication. Frontiers in Communication 5. https://doi.org/10.3389/fcomm.2020.00046. [ Links ]

Scaletti, C. (1994). Sound synthesis algorithms for auditory data representations. En G. Kramer (Ed.). Auditory Display: Sonification, Audification, and Auditory Interfaces (pp. 223-51). Addison Wesley. [ Links ]

Scaletti, C. (2018). Sonification ≠ Music. En R. T. Dean y A. McLean (Ed.). The Oxford Handbook of Algorithmic Music (pp. 363-386). Oxford Academic. [ Links ]

Seiça, M., Martins, P., Gomes Roque, L. y Cardoso, A. (2019). A Sonification Experience to Portray the Sounds of Portuguese Consumption Habits [Comunicación en congreso]. The 25th International Conference on Auditory Display (ICAD 2019). http://dx.doi.org/10.21785/icad2019.050Links ]

Smith, A. (2019). Sonification: turning the yield curve into music. Financial Times. https://www.ft.com/content/80269930-40c3-11e9-b896-fe36ec32aeceLinks ]

Sonify. (2022a). Data-Driven Storytelling: Making Civic Data Accessible with Audio https://www.wichita.sonify.io/Links ]

Sonify. (2022b). Twotone. https://twotone.io/Links ]

Stone, E. y Garrison, J. (2013). Package “audiolyzR”. http://www2.uaem.mx/r-mirror/web/packages/audiolyzR/audiolyzR.pdf. [ Links ]

Tactical Technology Collective. (2014). Why are houses collapsing in Egypt? https://egyptbuildingcollapses.org/. [ Links ]

Takahashi, R. y Miller, J. H. (2007). Conversion of Amino-Acid Sequence in Proteins to Classical Music: Search for Auditory Patterns. Genome Biology 8 (5), 405. https://doi.org/10.1186/gb-2007-8-5-405. [ Links ]

Temple, M. D. (2017). An auditory display tool for DNA sequence analysis. BMC Bioinformatics 18 (1), 221. https://doi.org/10.1186/s12859-017-1632-x. [ Links ]

Väljamäe, A., Steffert, T., Holland, S., Marimon, X., Benitez, R., Mealla, S., Oliveira, A. y Jorda, S. (2013). A Review of Real-Time Eeg Sonification Research [Comunicación en congreso]. Georgia Institute of Technology. https://smartech.gatech.edu/handle/1853/51645. [ Links ]

Vogt, K., Bovermann, T., Huber, P. y Campo, A. (24 de junio, 2008). Exploration Of 4d-Data Spaces. Sonification In Lattice Qcd [Comunicación en congreso]. Proceedings of the 14th International Conference on Auditory Display. http://hdl.handle.net/1853/49933Links ]

Wang, R., Jung, C. y Kim, Y. (2022). Seeing Through Sounds: Mapping Auditory Dimensions to Data and Charts for People with Visual Impairments. Computer Graphs Forum, 41 (3), 71-83. https://doi.org/10.1111/cgf.14523 [ Links ]

Walker, B. y Mauney, L. (1 de marzo, 2010). Universal Design of Auditory Graphs: A Comparison of Sonification Mappings for Visually Impaired and Sighted Listeners. ACM Transactions on Accessible Computing, 2. https://dl.acm.org/doi/10.1145/1714458.1714459. [ Links ]

Walker, B.N. y Kramer, G. (2021). Ecological Psychoacoustics and Auditory Displays. En Neuhoff, J.G. (Ed.). Ecological Psychoacustics (pp. 149-174). Brill. [ Links ]

Walker, B. N, y Moseng, Ø. (2020). Chart Sonification for All: Accessible Multimodal Graphs [Comunicación en congreso]. Proceedings of the 35th Annual International Technology & Persons with Disabilities Conference (CSUN2020), 2. http://sonify.psych.gatech.edu/publications/pdfs/2020CSUN-WalkerMoseng.pdf.Links ]

Walker, B. N., y Nees, M. A. (2011). Theory of Sonification. En T. Hermann , A. Hunt , J. G. Neuhoff (Eds.) The Sonification Handbook (pp. 24-39). Logos Verlag. https://sonification.de/handbook/download/ TheSonificationHandbook-HermannHuntNeuhoff-2011.pdf. [ Links ]

Wilson, C. M. y Lodha, S. K. (1996). Listen: A Data Sonification Toolkit [Comunicación en congreso]. International Conference on Auditory Display, Georgia Institute of Technology. https://smartech.gatech.edu/handle/1853/50809. [ Links ]

Wilson, S. y Harkings, J. (2022). Supercollider. https://supercollider.github.io/Links ]

Wirfs-Brock, J. (2022). Data Sonification: ‘Charts’ for Radio? National Press Foundation. https://nationalpress.org/topic/data-sonification-charts-for-radio/. [ Links ]

Wirfs-Brock, J., Fam, A., Devendorf, L. y Keegan, B. (2021). Examining Narrative Sonification: Using FirstPerson Retrospection Methods to Translate Radio Production to Interaction Design. ACM Transactions on Computer-Human Interaction 28 (6), 41:1-41:34. https://doi.org/10.1145/3461762. [ Links ]

Worrall, D. (2019). Sonification: An Overview. En D. Worrall, Sonification Design (pp. 23-54). Springer International Publishing. https://doi.org/10.1007/978-3-030-01497-1_2 [ Links ]

Zhao, H., Plaisant, C., Shneiderman, B. y Lazar, J. (2008). Data Sonification for Users with Visual Impairment: A Case Study with Georeferenced Data. ACM Transactions on Computer-Human Interaction (TOCHI) 15(1), 1-28. https://doi.org/10.1145/1352782.1352786 [ Links ]

Recibido: 28 de Agosto de 2022; Aprobado: 20 de Enero de 2023

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons