José Andrés Gabardo (EGM): La “fácil” medición de Internet
https://www.gorkazumeta.com/2016/06/jose-andres-gabardo-egm-la-facil.html?m=0
Una reflexión del director técnico del EGM (AIMC) José Andrés Gabardo
Los retos de la medición de radio online
José Andrés Gabardo, director técnico de la AIMC y responsable del EGM |
El responsable del Estudio General de Medios (EGM), elaborado trimestralmente (excepto los meses de verano) por la Asociación Española de Medios de Comunicación (AIMC), José Andrés Gabardo, analiza las posibilidades actuales en torno a la medición de las audiencias de radio y certifica, con argumentos, los serios problemas con que se enfrenta una medición fiable en el nuevo escenario online. Los más autocríticos son los propios técnicos del EGM , que son conscientes de la necesidad imperiosa de avanzar en este capítulo, fundamental para auditar la fuerza y la solidez de la radio en España, pero las circunstancias, y la tecnología, se empeñan en regalarnos una complejidad que, lejos de facilitar una medición fiable, complican mucho los procesos.
La disponibilidad de datos de
audiencia precisos y sólidos es uno de los requerimientos cuando se dice que el
mercado publicitario de un determinado medio de comunicación está maduro.
Estos datos deben ser capaces de
dar respuesta a dos necesidades de cualquier tipo de medio de comunicación:
- Proporcionar información para el desarrollo del marketing de los medios que permita conocer a sus usuarios y los de la competencia con el fin de desarrollar adecuadamente su producto.
- Establecer el “currecy” o moneda de cambio que permita realizar la compraventa para los espacios publicitarios.
En este aspecto el medio Internet
no es ajeno a tal necesidad y necesita dotarse de un adecuado sistema de
medición de su audiencia.
No suele ser fácil llegar a un
método que proporcione los datos más reales y aceptados por el mercado
publicitario. E Internet no es una excepción.
Desde la AIMC son conscientes de que la metodología tiene que cambiar, para mejorar, pero no es tan sencillo |
El método general, válido para
cualquier medio consiste en realizar algún tipo de encuesta que permita
cuantificar y cualificar a los individuos que consumen el medio. Este enfoque
conocido como “User Centric” o centrado en los usuarios, se debe adaptar a las
características de cada medio.
Pero en el caso de Internet
existe también la posibilidad de realizar este recuento site por site por medio
del registro electrónico que deja en el servidor del site el envío de las
páginas al dispositivo utilizado por cada individuo. Son llamados también
sistema “Site Centric” o centrados en los sites.
Analicemos los Pros y Contras de
cada uno de estos sistemas:
Sistemas Site-centric
En los últimos años del siglo
pasado recuerdo haber asistido a multitud de reuniones en las que los
interlocutores, miembros de la incipiente industria de Internet, introducían o
finalizaban la reunión señalando el pronto fin de los estudios “tradicionales”
de audiencia. Internet, entonces un medio emergente, iba a permitir conocer
absolutamente todo de sus usuarios, no sólo su número exacto, sino toda una
suerte de demográficos, hábitos de consumo y navegación, etc. pero no por medio
de “estimaciones”, como en los medios tradicionales, sino de recuentos exactos
de sus usuarios, uno por uno.
Era la época de los analizadores
de “Log”, los registros de tráfico de los servidores de Internet. Fueron muchos
y diversos los analizadores que aparecieron en el mercado. Estos registros de
páginas servidas permitían conocer el tráfico de cada site.
El sistema Site Centric |
Pero su funcionalidad duró muy
poco. La lentitud inicial de Internet hizo que los proveedores de acceso (ISP)
idearan un sistema para agilizar el envío de la información, los servidores
Proxi. Si una misma información se debía enviar a múltiples solicitantes, era
más rápido conservar una copia en un servidor intermedio del ISP que ahorrase
realizar la petición al proveedor
multitud de veces. El problema se presentaba en los registros del ”log”
del site al dejar de registrar una parte de los usuarios de sus servicios, que accedían
al contenido del site original, pero que obtenían la información por medio de servidores
ajenos al site. Estos servidores favorecieron al medio al permitir mayor
velocidad y aumentar el consumo de Internet, pero restaban una parte del
tráfico registrado en los logs y por tanto de los sites.
Para corregir esto se implementó
un nuevo sistema: los marcadores o “tags”. Un tag es una pequeña porción de
código que se inserta en cada página del site, que se ejecuta cuando se
descarga la página, independientemente de quien sirva la página, y que envía a
un ordenador centralizado un pequeño fichero con información del usuario en combinación
con las “cookies”. Una cookie es un pequeño fichero de datos que se almacena en
el ordenador/dispositivo desde donde se accede a Internet. Esta cookie es capaz
de almacenar diferentes informaciones, como cuándo se ha producido el último
contacto con este site, o el número de veces que ha accedido, etc. y también
algunas otras informaciones opcionales, como datos que permiten mantener la
configuración preferida por el usuario, etc.
Un sistema de medición fiable resulta imprescindible para el futuro de la radio online |
Estas cookies podrían permitir
identificar los individuos diferentes que acceden a un site, ya que esta cookie
guardada en el navegador te indica que desde este mismo navegador ya se ha
accedido anteriormente a un determinado site. El problema de las cookies es que
se pueden borrar tantas veces como se quiera, y en este caso si se vuelve a
acceder al site este enviará una nueva cookie y considerará a este visitante
como completamente nuevo. El rechazo sistemático de cookies o su borrado
regular alteran las mediciones, siendo consenso general que producen una
sobreestimación de las cookies diferentes y por tanto de los usuarios que
contabilizan.
En el mismo sentido operan los robots
y arañas. Estos son programas que se dedicaban a visitar sites con el fin de
inventariar su información y recoger su actividad publicitaria. Este tráfico
entre máquinas, sin ningún humano detrás, no ha parado de crecer y debe ser
eliminado en cualquier intento de medir audiencia.
Por otra parte el hecho cada vez
más frecuente de que una persona que utilice más de un dispositivo para
conectarse a internet, y que sea considerado un individuo diferente en cada uno
de ellos sólo está incrementando la sobreestimación de los usuarios de estos
sistemas site centric.
Otro tipo de problema añadido del
“log” es que éste residía en los propios servidores del site, y que son los que
deben proporcionar su propia información al mercado, sin pasar por ningún tipo
de validación externa.
El camino hacia una medición de las audiencias más fiable pasa por sistemas híbridos |
No obstante, este sistema tiene
la ventaja de hacer un recuento bastante exhaustivo, y esto es válido tanto
para los site con un gran volumen de tráfico, como con los que tienen un
reducido volumen de tráfico, el famoso Long Tail.
Este sistema sólo nos permite
obtener volumen de tráfico, pero no permite obtener datos sociodemográficos ni
de perfiles de los individuos, considerados de mucho valor por los anunciantes.
Sistemas User-centric
Este otro sistema se basa en
obtener la información de un panel de ordenadores/dispositivos a los que se les
ha instalado un software que es capaz de recoger toda la información relativa a
su navegación por internet. Esta metodología es similar a la utilizada en el
panel de audímetros de televisión. En el caso particular de Internet se debe
disponer de paneles diferentes para cada tipo de dispositivo, (Pc en el hogar,
Pc en el trabajo, Smartphone Android, Smartphone ios, Tablets Android, Ipad,
etc.), lo cual encarece considerablemente el coste de la operación.
También añade un serio problema, que
es conseguir deduplicar los individuos
entre los diferentes dispositivos, un problema similar al de los sistemas Site
Centric.
La ventaja de este sistema es que
además de obtener audiencias se pueden obtener los datos sociodemográficos de
los navegantes, tantos como los que se recojan a la hora de captar a los
panelistas.
Otro inconveniente surge al
tratar de medir los sites del Long Tail. Por muy bien que esté creado el panel,
para medir estos pequeños sites, es necesario disponer de unas muestras de un
tamaño considerable. Esto hace muy caro el sistema y le resta eficacia.
Sistemas Unificados / Hibridos Site Centric y User Centric
La solución ha venido de un sistema que utiliza los dos métodos combinados y que es capaz de sacar partido de las bondades de cada uno para paliar sus déficits. Son los llamados Sistemas Unificados/Híbridos. El sistema Site centric proporciona un preciso dato del volumen de cookies por site y el User Centric una estimación del promedio de cookies por usuario, que se utiliza para ajustar los usuarios del sistema Site Centric.
Gabardo |
Como parte de la información obtenida de los paneles User
Centric se obtienen datos de perfil de los usuarios.
Estos sistemas son muy complejos de implementar y como casi
todo lo bueno, muy caro, ya que necesita de soluciones para integrar los dos
tipos de estudios User Centric y Site Centric.
La medición del
“long tail”
Parece que ya hemos llegado al final del camino y que
con estos sistemas híbridos podemos medir todo en Internet, pero
desgraciadamente no es así.
Una de las mayores potencialidades de Internet es la
posibilidad de dar servicio, no sólo a las necesidades solicitadas por grandes
volúmenes de consumidores, sino el que permite ofrecer servicios demandados por
un relativamente pequeño grupo de usuarios, que incluso puede estar muy
disperso geográficamente, porque para internet no hay más fronteras. La
medición del long tail es básica para permitir a los sites nicho realizar su
importante misión de proporcionar datos fiables de audiencia que les permitan
sobrevivir en el duro ecosistema de la red.
Pero su pequeño tamaño les hace tener menor precisión
en los estudios que se basen en un panel, pues la muestra susceptible de ser
usuarios de estos sites es necesariamente pequeña, como su penetración, y por
otra parte puede no resultar rentable al site la inversión para disponer de los
datos de estos estudios.
Todos necesitan datos fiables para sobrevivir, los grandes y los pequeños |
Una posible solución para este tipo de sites pasa por
disponer de, al menos, una certificación contrastada, de cuál es su tráfico
neto, donde se hayan eliminado el máximo volumen posible de tráfico inválido,
(páginas no descargadas completamente, las descargas realizadas dentro de la
propia compañía, etc.), así como una garantía de limpieza de los tráficos
generados por robots y arañas.
Para esto es necesario que el mercado adopte una serie
de normas consensuadas para establecer qué parte del tráfico es aceptable y
cuál no y que todos sean medidos por el mismo rasero.
Esta certificación no es en absoluto gratuita, pero la no necesidad de paneles o similares les puede permitir disponer de un dato
básico pero contrastado de cuál es su volumen de audiencia, con un coste mucho
más ajustado y, lo más importante, aceptado por el mercado.
Visto lo cual creo que de la medición de Internet se
puede decir casi cualquier cosa, pero desde luego no que sea fácil de realizar.