La eficacia de la publicidad online está demostrada por todas aquellas empresas que apuestan por ella en sus estrategia de marketing, ante la evidencia de que vivimos en un entorno digital donde los posibles clientes se desenvuelven a diario. Quien analice sus propios datos de tráfico web, ventas en tiendas en línea o retorno de la inversión con activación de su retail físico sabrá hasta qué punto logra rendimientos reales en sus campañas, pero quedaba por demostrar la fiabilidad de los mismos sistemas de medición.
Investigadores de la Northwestern University y Facebook publicaron en marzo una nueva investigación en la revista INFORMS Marketing Science que arroja luz sobre si los enfoques comunes para la medición de publicidad en línea son tan confiables y precisos como el «estándar de oro» de los experimentos aleatorios a gran escala.
El estudio se titula «Una comparación de enfoques para la medición de la publicidad: Evidencia de Big Field Experiments en Facebook» (A Comparison of Approaches to Advertising Measurement: Evidence from Big Field Experiments at Facebook) y está escrito por Brett Gordon, de la Northwestern University; Florian Zetttelmeyer de la Northwestern University y la Oficina Nacional de Investigación Económica; y Neha Bhargava y Dan Chapsky de Facebook.
«Nuestros hallazgos sugieren que los enfoques de observación de uso común que se basan en datos generalmente disponibles para los anunciantes a menudo no miden con precisión el efecto real de la publicidad», dijo Brett Gordon.
Los enfoques observacionales son aquellos que abarcan una amplia clase de modelos estadísticos que se basan en los datos «tal como son», generados sin manipulación explícita a través de un experimento aleatorio.
«Encontramos una diferencia significativa en la efectividad de los anuncios obtenida de los ensayos de control aleatorios y los métodos de observación que los anunciantes utilizan con frecuencia para evaluar sus campañas», agregó Zettelmeyer.
“En general, los métodos actuales y más comunes sobreestiman la efectividad de los anuncios en relación con lo que encontramos en nuestras pruebas aleatorias. Aunque en algunos casos, subestiman significativamente la efectividad «.
Medir la efectividad de la publicidad online sigue siendo un problema importante para muchas empresas
Una pregunta clave es si una campaña publicitaria produjo resultados incrementales: ¿compraron más consumidores porque vieron un anuncio, o muchos de esos consumidores lo habrían comprado incluso en ausencia del anuncio? La obtención de una medida precisa de los resultados incrementales («conversiones») ayuda a un anunciante a calcular el retorno de la inversión (ROI) de la campaña.
«Las plataformas digitales que transmiten publicidad, como Facebook, han creado medios integrales para evaluar la efectividad de los anuncios, utilizando datos granulares que vinculan las exposiciones de los anuncios, los clics, las visitas a las páginas, las compras en línea e incluso las compras fuera de línea», dijo Gordon. «Aun así, incluso con estos datos, medir el efecto causal de la publicidad requiere la plataforma de experimentación adecuada».
Los autores del estudio utilizaron datos de 15 experimentos de publicidad de EE. UU. En Facebook, que comprenden 500 millones de observaciones de experimentos de usuarios y 1.600 millones de impresiones de anuncios.
La plataforma de experimentación de «conversión de conversión» de Facebook ofrece a los anunciantes la capacidad de realizar experimentos controlados aleatorios para medir el efecto causal de una campaña publicitaria en los resultados de los consumidores.
Estos experimentos asignan al azar a los usuarios a un grupo de control, que nunca están expuestos al anuncio, y a un grupo de prueba, que son elegibles para ver el anuncio. La comparación de los resultados entre los grupos proporciona el efecto causal del anuncio porque la aleatorización garantiza que los dos grupos sean, en promedio, equivalentes, excepto las exposiciones de publicidad en el grupo de prueba. Los resultados experimentales de cada campaña publicitaria sirvieron como una línea de base con la cual evaluar métodos comunes de observación.
Los métodos de observación comparan los resultados entre los usuarios que fueron expuestos al anuncio y los usuarios que no estaban expuestos. Estos dos grupos de usuarios tienden a diferir sistemáticamente de muchas maneras, como la edad y el género. Estas diferencias en las características pueden ser observables porque el anunciante (o su plataforma de publicidad) a menudo tiene acceso a estas características y otras, por ejemplo, además de saber el género y la edad de un usuario en línea, es posible observar el tipo de dispositivo. en uso, la ubicación del usuario, cuánto tiempo ha pasado desde la última vez que lo visitó, etc. Sin embargo, la parte difícil es que los grupos expuestos y no expuestos también pueden diferir en formas que son muy difíciles de medir, como los usuarios subyacentes Afinidad por la marca. Decir que el anuncio “causó” un efecto requiere que la investigación pueda explicar las diferencias observadas y no observadas entre los dos grupos. Los métodos de observación utilizan datos sobre las características de los usuarios que se observan para intentar ajustar las diferencias observables y no observables.
«Nos propusimos determinar si, como se cree comúnmente, los métodos de observación actuales que usan datos completos a nivel individual son ‘lo suficientemente buenos’ para la medición de anuncios», dijo Zettelmeyer. «Lo que descubrimos fue que incluso datos bastante completos resultan inadecuados para producir estimaciones confiables de los efectos publicitarios».
«En principio, creemos que el uso de ensayos controlados aleatorios a gran escala para evaluar la efectividad de la publicidad debería ser el método preferido para los anunciantes siempre que sea posible».
Ventas Off Line que proceden del On Line
Un informe previo de 2017 de la revista INFORMS de Marketing Science determinó que los anuncios online pueden aumentar las ventas minoristas en línea y fuera de línea, lo que proporciona información valiosa para futuras decisiones de marketing. El estudio titulado «Cuando menos es más: datos y poder en experimentos publicitarios» (When Less is More: Data and Power in Advertising Experiments) fue escrito por Garrett Johnson de la Universidad de Rochester, Randall Lewis de Netflix y David Reiley de Pandora, quienes estaban realizando una investigación para Yahoo! En el momento del estudio.
El Yahoo! los investigadores trabajaron con un minorista nacional de ropa sin nombre para evaluar los efectos de la publicidad del minorista. Colaboraron en un experimento de campo a gran escala que involucró a más de 3 millones de usuarios de Yahoo!. Durante dos semanas, los usuarios del grupo de tratamiento del experimento vieron anuncios de ropa de marca del minorista, mientras que los usuarios del grupo de control vieron anuncios de Yahoo!. En relación con la línea de base establecida por el grupo de control, el experimento mostró que la campaña del minorista aumentó las ventas en un 3,6 por ciento o aproximadamente tres veces el gasto del minorista en publicidad.
Reiley dijo: «Este minorista de ropa nos abordó con un problema interesante:» ¿Cómo puedo saber si mis anuncios en línea funcionan cuando el 90 por ciento de mis ventas están fuera de línea? «
Los autores atacaron este problema haciendo coincidir los registros de los clientes entre el minorista y Yahoo!. Es importante destacar que los autores combinaron los datos de ventas en línea y fuera de línea a nivel de cliente con un experimento controlado que les permitió evaluar cuánto habrían comprado los consumidores en ausencia de la campaña publicitaria. Determinaron que el 84 por ciento del aumento de ventas de los anuncios provino de ventas fuera de línea. Reiley agregó: “Sin el experimento, el minorista podría haber llegado a la conclusión errónea de que los anuncios solo aumentaron las ventas en línea y no las ventas fuera de línea. Irónicamente, esto podría haber llevado a una subinversión en publicidad en línea «.
El estudio señala que su novedoso diseño experimental puede ser valioso para las empresas que buscan medir la efectividad de la publicidad. Lewis señaló: «Antes realizábamos experimentos con este minorista, pero este fue el experimento más grande en el que usamos ‘anuncios de control’ para determinar qué miembros del grupo de control habrían visto los anuncios. Esto nos permitió ignorar el ruido estadístico de las compras de consumidores que nunca vieron los anuncios. También descubrimos que solo necesitábamos ver las ventas después del primer anuncio porque un anuncio solo puede afectarle después de haberlo visto. Estos dos trucos nos permitieron mejorar la precisión estadística de los beneficios estimados de la publicidad en línea «.
La mejora en la precisión del uso de anuncios de control es de vital importancia para los gerentes que toman decisiones publicitarias. Johnson explicó: “Las estimaciones de la efectividad de los anuncios tienden a ser pequeñas, pero también imprecisas. Incluso con un estudio de 3 millones de usuarios, los métodos estándar para mejorar la precisión al controlar el comportamiento y la demografía del cliente fueron menos efectivos de lo que se esperaba. Sin embargo, al hacer un uso completo de los anuncios de control, mejoramos aún más en seis veces la precisión estadística de nuestras estimaciones de efectos de anuncios. Para los gerentes, esta mejora podría ser el factor decisivo para saber si la publicidad en línea tiene un impacto positivo claro y estadísticamente significativo. Esperamos que las ideas en nuestro diseño puedan ayudar a las empresas a invertir con confianza en campañas publicitarias cuando es probable que sean rentables «.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
La gestión de la cadena de suministro es uno de los elementos más críticos en la estrategia de ciberseguridad de cualquier gran empresa, ya que concentra una parte significativa del riesgo operativo. Como han demostrado incidentes recientes (como los sufridos por Iberia o los aeropuertos europeos), un solo punto débil en la red de proveedores puede poner en riesgo las operaciones de grandes compañías.
La Directiva NIS2 busca, precisamente, elevar la ciberseguridad a un nivel regulatorio sin precedentes en la Unión Europea, extendiendo la responsabilidad más allá de los límites internos de la empresa. Esta normativa transforma la gestión de riesgos de terceros, conocida como TPRM (Third-Party Risk Management), en una obligación ineludible para garantizar la resiliencia digital.
Además, la directiva establece la obligación de que los órganos de dirección se hagan explícitamente responsables de la supervisión de las medidas de ciberseguridad, incluidos los controles aplicados a los proveedores, lo que convierte a la TPRM en una responsabilidad estratégica y no solo operativa.
Los sistemas de inteligencia artificial basados en los llamados modelos de lenguaje (LLM), como GPT4 o Copilot, funcionan gracias a que pueden aprender y utilizar el lenguaje humano. El reto para una máquina es entender que los humanos utilizamos el lenguaje de forma normativa, con distintos acentos y entonaciones, y que usamos jergas o slang. Por ello, gran parte de la investigación científica dedicada al desarrollo de estos modelos se destina a lograr que el algoritmo funcione de la forma más natural posible.
Una de las líneas de trabajo consiste en comprender que, cuando un algoritmo aprende desde cero, lo hace igual que un bebé al nacer. Pero estas máquinas aprenden de cantidades astronómicas de información lingüística, mucho mayor que la que reciben los niños cuando aprenden a comprender y hablar un idioma. Para entender la magnitud de esta cuestión bastan las cifras: los mejores sistemas de inteligencia artificial se entrenan con textos de billones de palabras, mientras que los niños reciben solo millones por año.
La entrada en vigor del Reglamento de IA de la UE marca un antes y un después para el uso corporativo de la Inteligencia Artificial. Para las grandes empresas y organizaciones, adoptar un enfoque de compliance no es solo una obligación legal, sino una oportunidad estratégica para mejorar la gobernanza, fortalecer la confianza, reducir riesgo reputacional y prepararse para competir con responsabilidad y resiliencia en la economía digital. Pero, ojo, que lejos de ser un proceso voluntario, la no aplicación de este nuevo reglamento conlleva algunas de las sanciones más duras hasta la fecha, lo que refuerza la urgencia de una adaptación rigurosa. En este artículo te contamos todo lo que tienes que saber cuanto antes.
La ciberseguridad ha pasado a convertirse en un eje central de la seguridad nacional, la competitividad empresarial y la estabilidad institucional. Así quedó patente en las XIX Jornadas STIC del CCN-CERT, celebradas en Madrid, que reunieron una vez más al principal ecosistema público-privado de ciberseguridad de España en un momento especialmente crítico desde el punto de vista geopolítico, tecnológico y económico.
Vivimos en un mundo hiperconectado, marcado por la creciente presión geopolítica y por amenazas digitales que evolucionan con gran rapidez. Como destaca Roberto Lara, Director de Ciberseguridad de Vodafone España: “la defensa de un país ya no se puede entender sin el ciberespacio”. Esta afirmación resume con claridad el cambio de paradigma al que se enfrentan Estados, Fuerzas Armadas y empresas estratégicas. En un escenario donde tecnologías como la Inteligencia Artificial o la computación cuántica amplían tanto las capacidades defensivas como las ofensivas, la responsabilidad de la seguridad ya no recae exclusivamente en los ejércitos.
Si aún no conoces en qué consiste la Industria 5.0 o piensas que es solo una serie de herramientas nuevas que cambiarán la forma en que produces, y no lo que produces, este artículo tiene el objetivo de ofrecerte una reflexión sólida sobre por qué es una transformación estructural, y cómo la transición a esta nueva generación industrial no solo representa un reto tecnológico, sino una apuesta por la sostenibilidad, la resiliencia y el valor humano.
La defensa moderna es híbrida y ya no se basa únicamente en estructuras físicas o armamento convencional, sino en la capacidad de las Fuerzas Armadas para gestionar la información y los datos. La operatividad y capacidad de respuesta depende de cómo es capaz de procesar, compartir y explotar la información en tiempo real. Desde las meras transmisiones tácticas, al control de vehículos autónomos, la utilización de sensores, la Inteligencia Artificial, la ciberdefensa… En este nuevo escenario, denominado C4ISR (de las siglas en inglés de los conceptos Command, Control, Communications, Computers, Intelligence, Surveillance and Reconnaissance) se convierte en el motor tecnológico que permitirá operar en entornos multidominio, garantizar la superioridad informativa y acelerar la toma de decisiones en misiones críticas mediante arquitecturas seguras y distribuidas.
Todos estos factores justifican sin duda la reciente decisión del Ministerio de Defensa de prefinanciar 4.629 millones de euros en nuevos Programas Especiales de Modernización (PEM). Esta decisión estratégica marca un punto de inflexión: la prioridad ya no es la adquisición de material concreto, sino la creación de un ecosistema conectado, resiliente y totalmente interoperable, con preferencia por la no dependencia de otros países y alineado con iniciativas europeas y estándares OTAN.
Vivimos en un mundo conectado y la actividad empresarial se basa ya en esa conectividad. Una adecuada estrategia de gestión de las comunicaciones puede marcar la ventaja competitiva y la viabilidad de un modelo de negocio para liderar un sector. En otras palabras: La conectividad avanzada no es un recurso técnico, sino un activo estratégico e invertir en conectividad es invertir en competitividad.
Las compañías que no incorporan redes inteligentes, infraestructuras de fibra de alta capacidad o 5G y servicios de baja latencia, simplemente quedan fuera de los procesos productivos modernos, de las cadenas de suministro globales y de los modelos de negocio data-driven que definen el mercado actual. Con la digitalización y la aceleración tecnológica, la conectividad avanzada deja de ser un elemento diferencial para convertirse en la base imprescindible sobre la que se construye la competitividad empresarial.
La aprobación de la nueva Ley de Atención al Cliente redefine las reglas del juego y redefine lo que consideramos normal en la relación con los consumidores. La disponibilidad e inmediatez deja de ser una ventaja competitiva y se convierte en una exigencia legal. Esta transformación no es opcional y no depende de lo que muchos entienden como exigencias del mercado, es decir, de los clientes, en el sentido de que ya no podemos alegar rentabilidad pese asumir la pérdida de posibles oportunidades o que no exista una demanda real por parte de nuestros clientes, sino que es una norma de obligado cumplimiento dictada por las autoridades.
De cualquier forma, las empresas deben revisar su infraestructura, sus procesos operativos y su enfoque de servicio para rediseñar los flujos de atención y formar a sus equipos no será una inversión, sino una necesidad. En muchos casos, la solución puede estar en adoptar soluciones modernas como la centralita virtual y otras herramientas digitales, como las que veremos a continuación.
Todos los expertos coinciden en señalar que el principal riesgo de intrusión en una red corporativa es la multiplicación exponencial de puertas de entrada que suponen los dispositivos móviles conectados, especialmente en los casos en los que se fomenta o permite el denominado modelo BYOD (por las siglas en inglés de “Trae tu propio dispositivo”). Pero hoy, la digitalización ha alcanzado un nivel tal que es impensable renunciar a la conectividad móvil y sus indispensables aplicaciones.
La solución, por tanto, no es otra que asumir la responsabilidad y ser conscientes de la necesidad de entender la ciberseguridad como un core más del negocio, transversal a todo el modelo productivo, pero con inversiones específicas en medidas de protección. Unas inversiones que, dependiendo de la naturaleza y tamaño de la organización a proteger, puede ser un departamento externo, interno o híbrido. Hablamos de lo que comúnmente se denomina un SOC (centro de operaciones de seguridad) que permite a empresas de todos los tamaños proteger no solo su red fija, sino también sus dispositivos móviles.
La Inteligencia Artificial ha llegado como un tsunami y sería difícil encontrar alguien que hoy no haya usado alguna aplicación, aunque sea solo por probarla. Si ampliamos el concepto a esas aplicaciones de AI embebida, es decir, la que funciona en segundo plano, aunque el usuario no sea consciente de ella, el porcentaje sería prácticamente cien, salvo que no utilicen ningún tipo de dispositivo en su día a día.
Ante esa rápida adopción de la tecnología, en este nuevo episodio del podcast Vodafone Lab Café titulado "Aterrizando la IA", se debate sobre por qué no todas las empresas y organizaciones parecen estar adoptándola con la misma rapidez o estrategia y cómo pueden empezar a hacerlo, tal y como propone el título.
La teleasistencia IoT representa un cambio estratégico para los hospitales y los servicios de salud en un contexto marcado por una presión asistencial creciente y la necesidad de optimizar recursos sin comprometer la calidad clínica. Es una tecnología capaz de mejorar la asistencia al mismo tiempo que reduce costes. Concretamente, puede reducir los reingresos innecesarios, mejorar la eficiencia operativa, elevar la calidad asistencial y desbloquear nuevas líneas de ingresos. Pero su éxito depende de cimientos tecnológicos sólidos como redes NB-IoT, plataformas de datos o inteligencia artificial, y de un compromiso riguroso con la seguridad y la privacidad.
Para los responsables de los servicios de salud, invertir en soluciones de teleasistencia IoT es apostar por un modelo sostenible y rentable, centrado en el paciente y diseñado para el futuro. La presión sobre los recursos hospitalarios no deja de aumentar y esta fórmula puede marcar la diferencia entre un sistema que sigue absorbiendo costes ocultos y otro que maximiza su valor clínico y financiero.
De cara a planificar 2026, la propuesta de adoptar FinOps como marco es la vía para que el gasto en la nube deje de ser un agujero negro y se convierta en una palanca de valor competitivo. Pero no basta con ver solo la parte cloud sino que conviene ver el ecosistema completo de aplicaciones, infraestructura y red, para optimizarlo de forma integrada.
En este cambio cultural, la hoja de ruta incluye informar, optimizar y operar. Siguiendo estas pautas, no solo reducirás costes, sino que mejorarás agilidad, control y retorno de inversión. En este artículo vamos a guiarte para que la nube deje de ser un coste indeterminado y se convierta en uno de los activos más estratégicos de tu empresa.
Con el avance de la digitalización, las empresas son más susceptibles de sufrir ciberataques o ciberamenazas. Para hacer frente a esta situación, las compañías están implementando diferentes estrategias de ciberseguridad para proteger sus activos y garantizar la continuidad del negocio. Paralelamente, se han ido creando distintas leyes de ciberseguridad con el objetivo de proteger no solo los datos personales, sino también la resiliencia operativa, la integridad de las infraestructuras críticas y la seguridad de los productos tecnológicos. Veamos cuáles son las principales leyes de ciberseguridad: