EGM censal: una puerta abierta a la medición del futuro
- AIMC da un paso de gigante en la medición de la radio en España, realizada a través de su Estudio General de Medios, tan criticado como imprescindible
- A menudo se descalificaban los datos publicados en el EGM por considerarlos una encuesta basada en la capacidad memorística de los encuestados. La incorporación de datos de streaming representa un giro en la base del estudio, que no ha hecho más que empezar
- Los datos de streaming incorporados solo representan en torno a un 14 por ciento de la audiencia total de la radio en España, pero ya resultan lo suficientemente significativos como para establecer, a partir de ellos, tendencias claras en la evolución de las audiencias
- La metodología ha convertido al EGM en un estudio pionero, a nivel internacional, que incorpora, e integra, datos censales en su encuesta
El mundo digital no es tan sencillo de medir como pensamos (Fotografía Pexels) |
La mayor prueba de que el EGM estaba bien hecho ha sido la práctica coincidencia de la medición censal con la muestral. José Andrés Gabardo, el director técnico del EGM, reconoce que no le ha sorprendido, pero sí “agradado”. Y es que, como afirma al ver los primeros resultados de la integración que no se han hecho públicos hasta ahora, “no hay una diferencia significativa entre lo declarado por los encuestados en el EGM y la medición real de consumo registrada por los servidores de las radios. Y no hay que olvidar que estamos hablando solo de la audiencia de radio a través de internet”, porque el canal predominante sigue siendo la FM
La culpa es de la ‘arañas’
En charla mantenida con el director técnico del EGM, en abril
pasado, José Andrés Gabardo comentaba que “’las
‘arañas’ están constantemente buscando y detectando publicidad, hasta el propio
control de la emisión. En la emisión en FM hay escuchas que, si no funcionan,
activan alarmas. En la emisión online ocurre lo mismo, hay sistemas de
detección que originan accesos constantes para verificar que la emisión está
saliendo, y son máquinas”. Gabardo se refería en aquella ocasión a una
afirmación que no han podido corroborar, que mantiene que ‘la mayoría del
tráfico de internet es de máquina contra máquina’. “No puedo dar por buena esta afirmación- explicaba- pero hay un sinnúmero de servicios, alrededor de internet, que provocan infinidad de accesos, originados por máquinas”, concluye. El símil cinematográfico que podríamos
encontrar con este pasaje podrían ser las escenas de la película ‘Matrix’
en las que las ‘arañas’ están buscando constantemente a los rebeldes.
Estos, y no otros, han sido los problemas que han ido retrasando,
durante dos oleadas, el proceso de integración de datos de streaming en el
estudio tradicional del recuerdo del día anterior que representa el EGM.
Durante los últimos meses, aunque los datos les ‘quemaban’, porque los tenían,
en realidad no podían ser incorporados porque existían lagunas que los
invalidaban. “El
problema de todo esto -proseguía Gabardo- es
que ‘la minería de datos’ te obliga a escarbar en ellos hasta tenerlos
perfectamente filtrados y verificados. Mientras tanto, puedes tener un archivo
inmenso, pero en realidad no hay nada. Tienes que ponerte de acuerdo en definir
unas normas de aplicación conjunta a todos los ficheros, como por ejemplo el
tiempo mínimo de conexión para considerarlo un oyente, y luego hay que hacer
una criba minuciosa de todo lo que no es tráfico humano”.
Una vez encontrada la ‘tecla’ de la unificación y limpieza
de datos, ODEC tenía que cumplir con un tercer requisito, imprescindible, antes
de poder integrar los datos surgidos del streaming con el EGM: la homogeneización
y creación de una única base de datos conformada por las sesiones válidas de
escucha localizadas solo en España. Los datos del exterior no interesan, aunque
también les llega la publicidad. Pero el mercado investigado, es claro el mandato,
es España.
José Andrés Gabardo, director técnico del EGM (Fotografía Gorka Zumeta) |
Se trata, sin lugar a dudas, de un hito en la historia del EGM, que ha superado ampliamente el medio siglo de historia desde su puesta en funcionamiento, con un aspecto mucho más modesto que el actual. Que el EGM incorpore datos de escucha reales de radio resulta pionero en el mundo entero, y numerosos institutos de medición del mundo están observando con interés todo este proceso, y a ODEC como posible socio tecnológico, una vez que ha logrado despejar todos los problemas e inconvenientes. Eduardo Madinaveitia, una autoridad en la investigación de audiencias, calificaba este proceso como “un avance”, aunque, a continuación, establecía un ‘pero’: “me da pena que se estén rompiendo los consensos y que la investigación basada en muestras representativas languidezca”, se lamentaba.
Medición muestral versus censal
El propio Madinaveitia establecía la diferenciación entre
una ‘medición muestral’, y una ‘medición censal’. “La
primera es medir datos de consumo de personas, la censal es mezclar datos de
personas con datos de aparatos (dispositivos) que a lo mejor detrás tienen una
persona, o no”, apuntaba. Tradicionalmente, la idea popular más
extendida es que resulta más fiable la medición de máquinas (servidores) que la
de las encuestas (personas). Y no siempre es así. La medición muestral ha sido
la mayoritaria hasta ahora, porque existían los consensos necesarios en el
mercado entre las partes afectadas, y los procesos matemáticos y estadísticos
desarrollados para llegar a los datos definitivos respondían a unos baremos científicos
y niveles de calidad que todo el sector asumía, sin fisuras.
“Hay que recordar, primero, que el EGM refleja un promedio de dos meses de escucha de radio en España. Nosotros no damos el dato de ningún día por separado, pero estos datos puntuales las cadenas sí los tienen, en digital, minuto a minuto, pero no es público”. Hay determinados momentos a lo largo del año, como por ejemplo ‘Especiales Elecciones’, la Lotería de Navidad, catástrofes naturales como la de la DANA, o eventos deportivos, con partidos de fútbol de gran expectación, “en que los servidores detectan un aumento de los accesos inusual en una jornada normal. Esto el EGM no puede reflejarlo”
La mayor prueba de que el EGM estaba bien hecho ha sido la
práctica coincidencia de la medición censal con la muestral. José Andrés Gabardo,
el director técnico, reconoce que no le ha sorprendido, pero sí “agradado”.
Y es que, como afirma al ver los primeros resultados de la integración que no
se han hecho públicos hasta ahora, “no
hay una diferencia significativa entre lo declarado por los encuestados en el
EGM y la medición real de consumo registrada por los servidores de las radios.
Y no hay que olvidar que estamos hablando solo de la audiencia de radio a
través de internet”. Los datos de streaming afectan solo a la escucha online
de radio, claramente minoritaria frente al canal predominante que sigue
representando la FM.
Al introducir datos censales, que están más cerca del
audímetro (sin serlo) que de la encuesta, la primera pregunta que muchos se
hacen es si aumentará la audiencia neta de la radio en España. Gabardo lo
aclaraba de la siguiente manera: “Sale
un poquito más, pero se va a diluir en el volumen total, no va a tener un
efecto significativo en las cifras absolutas”, defiende. Se está
creando, inevitablemente, mucha expectación, pero no conviene tampoco creer en
un aumento sustancial de las cifras. Al final, la integración se estabilizará.
La fotografía del EGM tendrá mejor 'definición'
Si tenemos una fotografía muy pixelada, cuanto más
reduzcamos su tamaño veremos mejor la imagen. De eso se trata en este caso.
Gracias a la medición censal, el EGM va a ganar en definición, sus ‘imágenes’
tendrán más píxeles, y serán por tanto más fidedignas y ajustadas a la
realidad. “Con
la medición censal, el EGM va a ganar en granularidad. La diferencia está en
que, en la metodología muestral, se mide de media hora en media hora, y hay
dientes de sierra, o sea, el gráfico sube y baja en tramos de media hora, y en
la medición censal la curva es más continua, en este sentido es más real, explica.
Antes de iniciar todo este proceso, de implicar a ODEC y de
llegar a este momento, AIMC no se planteó, y resulta cuando menos curioso, cuál
podría ser el resultado, y si podría, por ejemplo, invalidar el EGM. “La
verdad es que, cuando nos planteamos incorporar e integrar los datos censales
al EGM, en ningún momento nos planteamos ‘¡oye, y si no sale lo mismo!’. Luego,
analizados y tabulados los datos, efectivamente, no hay tanta diferencia”,
insiste.
Respecto de la ‘definición’ de la imagen de la audiencia de
la radio en España, José Andrés Gabardo, profundizaba en aquella entrevista,
publicada en este web, en torno al avance que supone, indudablemente, la medición
censal. “Es
cierto que este tipo de medición tiene muchos problemas. Pero también es cierto
que tiene una gran ventaja: te da, sobre todo en el detalle, más precisión que
la muestral. Cuando hay que medir universos muy grandes, no necesitas realizar
muchas encuestas para contar con solidez de los datos. Una vez introducido el
método censal, te das cuenta de que, a lo largo de todo el día, la audiencia
está presente, con mayor o menor presencia. Y esta precisión que aporta la
metodología censal no se puede medir por muchas encuestas que hagas”, defendía
Gabardo.
Dicen los expertos en investigación de métricas que "lo que no puede medirse, no existe" (Fotografía Pixabay) |
Medición censal: más cerca de los 'audímetros', sin serlo
Seguro que hay quien, a pesar de todas las explicaciones, y
los esfuerzos de AIMC por aumentar la precisión de los datos del EGM, piensa
que la correspondencia entre medición censal y muestral no es tan estrecha. Y
José Andrés Gabardo estaría de acuerdo, en parte. Pero es que el EGM es muy
complejo. “Claro que hay diferencias”, mantiene. Y explica previamente,
para entender el proceso de la medición de los servidores: “Hay
que recordar, primero, que el EGM refleja un promedio de dos meses de escucha
de radio en España. Nosotros no damos el dato de ningún día por separado, pero
estos datos puntuales las cadenas sí los tienen, en digital, minuto a minuto,
pero no es público”. Hay determinados momentos a lo largo del año, como
por ejemplo ‘Especiales Elecciones’, la Lotería de Navidad, catástrofes
naturales como la de la DANA, o eventos deportivos, con partidos de fútbol de
gran expectación, “en
que los servidores detectan un aumento de los accesos inusual en una jornada
normal. Esto el EGM no puede reflejarlo”, concluye. El EGM recoge la medición
media de dos meses. Por eso la medición censal está mucho más cerca de los audímetros
que controlan las audiencias de la televisión.
Partiendo de que no hay un sistema de medición de audiencias
perfecto, hay que felicitarse porque AIMC haya logrado superar todos los
obstáculos para poder integrar los datos de streaming de las cadenas de radio
en la tercera ola del EGM que se publicará el próximo 10 de diciembre. No es la
panacea, solo representa una pequeña parte de los españoles que prefieren
escuchar la radio a través de internet (13%), pero ya es lo suficientemente
representativa para establecer pautas de comportamiento. La tendencia de
consumo de radio en España avanza un descenso progresivo, muy lento, de la FM y
un aumento de la audiencia online, también muy lento, casi en parecidos
porcentajes.
Introducir esta metodología abre también las puertas a otra
exigencia del mercado, que tiene que ver con los pódcast y su consumo real. EGM
abordará su medición en los próximos meses, también a partir de la medición
censal, surgida de los servidores, una vez sometida al mismo proceso de
depuración de datos que han experimentado los logs de streaming. Queda trabajo
por hacer, pero es un pequeño paso de gigante para el EGM.
Relacionado:
-El
EGM integrará en diciembre datos reales de consumo de radio en su estudio
-José Andrés Gabardo: “Las diferencias entre el EGM y la medición real online son mínimas”