La eficacia de la publicidad online está demostrada por todas aquellas empresas que apuestan por ella en sus estrategia de marketing, ante la evidencia de que vivimos en un entorno digital donde los posibles clientes se desenvuelven a diario. Quien analice sus propios datos de tráfico web, ventas en tiendas en línea o retorno de la inversión con activación de su retail físico sabrá hasta qué punto logra rendimientos reales en sus campañas, pero quedaba por demostrar la fiabilidad de los mismos sistemas de medición.
Investigadores de la Northwestern University y Facebook publicaron en marzo una nueva investigación en la revista INFORMS Marketing Science que arroja luz sobre si los enfoques comunes para la medición de publicidad en línea son tan confiables y precisos como el «estándar de oro» de los experimentos aleatorios a gran escala.
El estudio se titula «Una comparación de enfoques para la medición de la publicidad: Evidencia de Big Field Experiments en Facebook» (A Comparison of Approaches to Advertising Measurement: Evidence from Big Field Experiments at Facebook) y está escrito por Brett Gordon, de la Northwestern University; Florian Zetttelmeyer de la Northwestern University y la Oficina Nacional de Investigación Económica; y Neha Bhargava y Dan Chapsky de Facebook.
«Nuestros hallazgos sugieren que los enfoques de observación de uso común que se basan en datos generalmente disponibles para los anunciantes a menudo no miden con precisión el efecto real de la publicidad», dijo Brett Gordon.
Los enfoques observacionales son aquellos que abarcan una amplia clase de modelos estadísticos que se basan en los datos «tal como son», generados sin manipulación explícita a través de un experimento aleatorio.
«Encontramos una diferencia significativa en la efectividad de los anuncios obtenida de los ensayos de control aleatorios y los métodos de observación que los anunciantes utilizan con frecuencia para evaluar sus campañas», agregó Zettelmeyer.
“En general, los métodos actuales y más comunes sobreestiman la efectividad de los anuncios en relación con lo que encontramos en nuestras pruebas aleatorias. Aunque en algunos casos, subestiman significativamente la efectividad «.
Medir la efectividad de la publicidad online sigue siendo un problema importante para muchas empresas
Una pregunta clave es si una campaña publicitaria produjo resultados incrementales: ¿compraron más consumidores porque vieron un anuncio, o muchos de esos consumidores lo habrían comprado incluso en ausencia del anuncio? La obtención de una medida precisa de los resultados incrementales («conversiones») ayuda a un anunciante a calcular el retorno de la inversión (ROI) de la campaña.
«Las plataformas digitales que transmiten publicidad, como Facebook, han creado medios integrales para evaluar la efectividad de los anuncios, utilizando datos granulares que vinculan las exposiciones de los anuncios, los clics, las visitas a las páginas, las compras en línea e incluso las compras fuera de línea», dijo Gordon. «Aun así, incluso con estos datos, medir el efecto causal de la publicidad requiere la plataforma de experimentación adecuada».
Los autores del estudio utilizaron datos de 15 experimentos de publicidad de EE. UU. En Facebook, que comprenden 500 millones de observaciones de experimentos de usuarios y 1.600 millones de impresiones de anuncios.
La plataforma de experimentación de «conversión de conversión» de Facebook ofrece a los anunciantes la capacidad de realizar experimentos controlados aleatorios para medir el efecto causal de una campaña publicitaria en los resultados de los consumidores.
Estos experimentos asignan al azar a los usuarios a un grupo de control, que nunca están expuestos al anuncio, y a un grupo de prueba, que son elegibles para ver el anuncio. La comparación de los resultados entre los grupos proporciona el efecto causal del anuncio porque la aleatorización garantiza que los dos grupos sean, en promedio, equivalentes, excepto las exposiciones de publicidad en el grupo de prueba. Los resultados experimentales de cada campaña publicitaria sirvieron como una línea de base con la cual evaluar métodos comunes de observación.
Los métodos de observación comparan los resultados entre los usuarios que fueron expuestos al anuncio y los usuarios que no estaban expuestos. Estos dos grupos de usuarios tienden a diferir sistemáticamente de muchas maneras, como la edad y el género. Estas diferencias en las características pueden ser observables porque el anunciante (o su plataforma de publicidad) a menudo tiene acceso a estas características y otras, por ejemplo, además de saber el género y la edad de un usuario en línea, es posible observar el tipo de dispositivo. en uso, la ubicación del usuario, cuánto tiempo ha pasado desde la última vez que lo visitó, etc. Sin embargo, la parte difícil es que los grupos expuestos y no expuestos también pueden diferir en formas que son muy difíciles de medir, como los usuarios subyacentes Afinidad por la marca. Decir que el anuncio “causó” un efecto requiere que la investigación pueda explicar las diferencias observadas y no observadas entre los dos grupos. Los métodos de observación utilizan datos sobre las características de los usuarios que se observan para intentar ajustar las diferencias observables y no observables.
«Nos propusimos determinar si, como se cree comúnmente, los métodos de observación actuales que usan datos completos a nivel individual son ‘lo suficientemente buenos’ para la medición de anuncios», dijo Zettelmeyer. «Lo que descubrimos fue que incluso datos bastante completos resultan inadecuados para producir estimaciones confiables de los efectos publicitarios».
«En principio, creemos que el uso de ensayos controlados aleatorios a gran escala para evaluar la efectividad de la publicidad debería ser el método preferido para los anunciantes siempre que sea posible».
Ventas Off Line que proceden del On Line
Un informe previo de 2017 de la revista INFORMS de Marketing Science determinó que los anuncios online pueden aumentar las ventas minoristas en línea y fuera de línea, lo que proporciona información valiosa para futuras decisiones de marketing. El estudio titulado «Cuando menos es más: datos y poder en experimentos publicitarios» (When Less is More: Data and Power in Advertising Experiments) fue escrito por Garrett Johnson de la Universidad de Rochester, Randall Lewis de Netflix y David Reiley de Pandora, quienes estaban realizando una investigación para Yahoo! En el momento del estudio.
El Yahoo! los investigadores trabajaron con un minorista nacional de ropa sin nombre para evaluar los efectos de la publicidad del minorista. Colaboraron en un experimento de campo a gran escala que involucró a más de 3 millones de usuarios de Yahoo!. Durante dos semanas, los usuarios del grupo de tratamiento del experimento vieron anuncios de ropa de marca del minorista, mientras que los usuarios del grupo de control vieron anuncios de Yahoo!. En relación con la línea de base establecida por el grupo de control, el experimento mostró que la campaña del minorista aumentó las ventas en un 3,6 por ciento o aproximadamente tres veces el gasto del minorista en publicidad.
Reiley dijo: «Este minorista de ropa nos abordó con un problema interesante:» ¿Cómo puedo saber si mis anuncios en línea funcionan cuando el 90 por ciento de mis ventas están fuera de línea? «
Los autores atacaron este problema haciendo coincidir los registros de los clientes entre el minorista y Yahoo!. Es importante destacar que los autores combinaron los datos de ventas en línea y fuera de línea a nivel de cliente con un experimento controlado que les permitió evaluar cuánto habrían comprado los consumidores en ausencia de la campaña publicitaria. Determinaron que el 84 por ciento del aumento de ventas de los anuncios provino de ventas fuera de línea. Reiley agregó: “Sin el experimento, el minorista podría haber llegado a la conclusión errónea de que los anuncios solo aumentaron las ventas en línea y no las ventas fuera de línea. Irónicamente, esto podría haber llevado a una subinversión en publicidad en línea «.
El estudio señala que su novedoso diseño experimental puede ser valioso para las empresas que buscan medir la efectividad de la publicidad. Lewis señaló: «Antes realizábamos experimentos con este minorista, pero este fue el experimento más grande en el que usamos ‘anuncios de control’ para determinar qué miembros del grupo de control habrían visto los anuncios. Esto nos permitió ignorar el ruido estadístico de las compras de consumidores que nunca vieron los anuncios. También descubrimos que solo necesitábamos ver las ventas después del primer anuncio porque un anuncio solo puede afectarle después de haberlo visto. Estos dos trucos nos permitieron mejorar la precisión estadística de los beneficios estimados de la publicidad en línea «.
La mejora en la precisión del uso de anuncios de control es de vital importancia para los gerentes que toman decisiones publicitarias. Johnson explicó: “Las estimaciones de la efectividad de los anuncios tienden a ser pequeñas, pero también imprecisas. Incluso con un estudio de 3 millones de usuarios, los métodos estándar para mejorar la precisión al controlar el comportamiento y la demografía del cliente fueron menos efectivos de lo que se esperaba. Sin embargo, al hacer un uso completo de los anuncios de control, mejoramos aún más en seis veces la precisión estadística de nuestras estimaciones de efectos de anuncios. Para los gerentes, esta mejora podría ser el factor decisivo para saber si la publicidad en línea tiene un impacto positivo claro y estadísticamente significativo. Esperamos que las ideas en nuestro diseño puedan ayudar a las empresas a invertir con confianza en campañas publicitarias cuando es probable que sean rentables «.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Los límites actuales de la Inteligencia Artificial son físicos, o lo que es lo mismo, donde encuentra mayor freno a su evolución es el soporte de hardware que hace posible la computación con unas exigencias de rendimiento y proceso muy superiores a los cálculos a los que la industria estaba acostumbrada. Además, el escalado de la IA tradicional comienza a chocar con los límites de la sostenibilidad energética. Frente a estas limitaciones, surge una arquitectura disruptiva inspirada en el órgano más eficiente de la naturaleza: el cerebro humano. La computación neuromórfica es una nueva tendencia académica que se ha consolidado como una tecnología esencial la hoja de ruta estratégica para superar los cuellos de botella de la infraestructura convencional, especialmente en entornos donde la eficiencia energética y la capacidad de procesamiento son críticas para el negocio.
A diferencia de la arquitectura clásica de von Neumann, que separa físicamente la memoria del procesamiento provocando latencias críticas, los sistemas neuromórficos integran ambas funciones en neuronas y sinapsis artificiales. Este enfoque permite un procesamiento de información asincrónico y masivamente paralelo. En lugar de operar de forma continua, el sistema solo consume energía cuando detecta un estímulo relevante, lo que se conoce como computación basada en eventos. Es lo que se conoce como redes neuronales de impulsos (SNN), un paradigma que imita los "spikes" eléctricos de la biología para alcanzar niveles de eficiencia energética hasta 100 veces superiores a los de las redes neuronales convencionales, convirtiéndose en un pilar para el desarrollo de una inteligencia artificial sostenible.
El concepto de Gemelo Digital, conocido globalmente como Digital Twins, está emergiendo como una de las tecnologías más transformadoras para todos los sectores, desde la industria, la logística o la energía, a los servicios públicos, la ciberseguridad y las infraestructuras críticas. Un Gemelo Digital es, esencialmente, una réplica virtual dinámica de un activo físico, proceso o sistema completo. Pero no se trata simplemente de un modelo 3D o una simulación avanzada. Lo que lo convierte en una herramienta estratégica es su capacidad de alimentarse continuamente con datos del mundo real, permitiendo observar, analizar y optimizar operaciones en tiempo real.
Esta réplica exacta de un sistema completo es mucho más que un simple back up, o copia de respaldo con la que restaurar un incidente concreto, como un ciberataque. Es todo un banco de pruebas a modo de sandbox en el que se ejecutan simulaciones de todo tipo, desde modelos A/B hasta pruebas de resiliencia frente a ciberataques.
Esta capacidad de anticipación convierte al gemelo digital en una ventaja competitiva clave, ya que permite tomar mejores decisiones basadas en datos vivos que reflejan el comportamiento real del sistema.
Si pensamos en la definición tradicional de red lo primero que nos vendrá a la mente es el concepto de canal o plataforma sobre la que circula algún tipo de información. Puede ser voz o datos, o si regresamos a un concepto anterior más analógico, algún tipo de vehículo o mercancía.
Sin embargo, esta definición está cambiando rápidamente con la llegada de nuevas capacidades como el sensing, que permiten a la red no solo transportar información, sino también interpretarla.
Es decir, hasta ahora, consideramos una red como algo pasivo que soporta un tráfico más o menos activo. Pero las nuevas redes de telecomunicaciones cambiarán esa visión o paradigma porque serán más que meros soportes, para convertirse en un dispositivo más.
Hablamos de redes inteligentes capaces de percibir el entorno físico mediante sensing, una capacidad que marcará la evolución hacia el 6G. Su potencial transformador es tal que conviene empezar a familiarizarse con el concepto cuanto antes.
La digitalización del sistema sanitario europeo está entrando en una nueva fase. El ENDS (Espacio Nacional de Datos de Salud) es la infraestructura que permitirá compartir datos clínicos en España de forma segura e interoperable. En este contexto, el ENDS se posiciona como uno de los pilares clave de esta transformación en España al configurar un ecosistema de datos sanitarios interoperable que integra y protege la información clínica de los ciudadanos.
El ENDS nace como un ecosistema de datos sanitarios interoperable que permitirá a hospitales, centros de salud y profesionales médicos acceder a información clínica relevante con independencia de la comunidad autónoma donde se haya generado. Su despliegue definitivo está previsto para 2026 como parte de la Estrategia de Salud Digital impulsada por el Gobierno español y alineada con las iniciativas europeas de datos sanitarios.
El objetivo es romper las barreras históricas entre sistemas regionales de salud, mejorar la continuidad asistencial y preparar la infraestructura sanitaria para una nueva generación de servicios digitales basados en datos.
Más que una simple base de datos, el ENDS aspira a convertirse en el tejido digital que conecte el sistema sanitario español con el futuro Espacio Europeo de Datos de Salud permitiendo que la información médica acompañe al ciudadano allí donde se encuentre.
En el marco del 5º Congreso de Ciberseguridad de Andalucía, que se celebra en Málaga los días 24 y 25 de marzo de 2026, la protección de infraestructuras críticas vuelve al centro del debate. Vivimos un momento crítico en el que la ciberseguridad se ha convertido en la clave de todo nuestro sistema. Hablamos de un mundo hiperconectado y digitalizado en casi la totalidad de sus procesos. Un sistema que, por tanto, es vulnerable a formas de ataque que interrumpan la normalidad y paralicen la actividad de cualquier sector.
Entornos como Internet de las Cosas multiplican los frentes a defender y la automatización basada en datos y su tratamiento por herramientas de Inteligencia Artificial representan nuevos retos constantes para proteger cualquier infraestructura considerada crítica. En realidad, nuestra economía ha convertido en crítica toda la cadena de suministro y proteger nuestros sistemas digitales es hoy tan esencial como lo fue poner vallas y alarmas en las instalaciones de toda la vida. La ciberseguridad es hoy tan importante que forma parte de la Estrategia Nacional de Defensa. Pero, si hay un sector en el que podamos decir con total certeza que la ciberseguridad salva vidas a diario, es el de la salud y la sanidad.
En esta edición del Vodafone Lab Café, expertos del sector analizan cómo la inteligencia artificial, el IoT y el 5G están transformando la sanidad hacia un modelo más conectado, eficiente y centrado en el paciente.
La tecnología está redefiniendo el presente y el futuro del sector sanitario. En esta nueva sesión de Vodafone Lab Café, grabada en directo el pasado 12 de marzo, analizamos cómo la IA en sanidad, el IoT y el 5G están impulsando una sanidad más conectada, más eficiente y más centrada en el paciente.
En la conversación, moderada por Carlos Becker, Director de Marketing y Desarrollo de Negocio en Vodafone Business, participaron José Pereira, Director de Medios y Responsable de Transformación Digital en Asisa; Cristian Pascual, CEO y cofundador de Mediktor y presidente de Barcelona & Madrid Health Hub; Nerea Míguez, Directora de Desarrollo IoT y Redes Privadas 5G en Vodafone Business; y Pablo Soto, Director del Programa de Inteligencia Artificial e Innovación en Vodafone Business.
El desarrollo de software ha entrado en una nueva fase marcada por la irrupción de la IA generativa aplicada al código. Entre los conceptos que están ganando protagonismo en la industria tecnológica destaca el vibe coding, un enfoque emergente que promete transformar radicalmente la forma en que se construyen aplicaciones.
El vibe coding se basa en la idea sencilla pero disruptiva de desarrollar software describiendo lo que se quiere en lenguaje natural, mientras herramientas de inteligencia artificial generan el código necesario para hacerlo realidad. Plataformas como Cursor o agentes autónomos de desarrollo permiten que el programador actúe más como director creativo del sistema que como autor directo de cada línea de código.
En este nuevo paradigma, el humano define la intención, la arquitectura conceptual o el “vibe” del producto, mientras la IA ejecuta la lógica técnica. El resultado puede ser sorprendente con aplicaciones completas generadas en cuestión de horas.
Esta velocidad introduce un dilema estratégico para empresas tecnológicas y equipos de ingeniería. La misma tecnología que acelera el desarrollo puede también diluir el control sobre lo que ocurre dentro del código. Entre la promesa de productividad y el riesgo de deuda técnica masiva, el debate sobre el vibe coding apenas comienza. Vamos a intentar arrojar un poco de luz en esta cuestión.
El Mobile World Congress (MWC) de Barcelona 2026 no ha sido solo una fecha en el calendario, aunque no haya directivo o profesional interesado en las cuestiones IT que no la tenga marcada año tras año. Se trata del barómetro que define hacia dónde se dirige la economía global, tan ligada a la tecnología, que ya no se entiende ninguna actividad o industria que no esté definida por ella.
Para Vodafone España, la edición MWC 2026 adquirió una dimensión aún más especial al celebrar el 20º aniversario en Barcelona, cita a la que siempre hemos acudido en los más de 25 años de nuestra presencia en España. Este año hemos podido ver, de nuevo, cómo esa presencia que materializa ideas se transforma en acuerdos y pone en valor la tecnología por su impacto en los negocios y las personas. Es momento ahora de hacer un repaso a lo más destacado de nuestra participación en este evento, con un resumen de las presentaciones que llevamos a cabo.
En algunos sectores productivos como la industria menos automatizada, los facility services o la hostelería, la gestión de turnos es la gran cuestión de las operaciones. El core de negocio son los recursos humanos, y organizar el trabajo en turnos cuando estos dependen de múltiples variables puede ser la clave del éxito o del fracaso como negocio. Por supuesto, la función pública no escapa a esta cuestión. En entornos laborales como los de hoy, dinámicos, la gestión del tiempo y de los turnos de trabajo se ha convertido así en un elemento estratégico para las organizaciones. Más allá de ser un requisito administrativo, planificar y controlar eficientemente los turnos laborales impacta de forma directa en la eficiencia operativa, la satisfacción de los empleados y la rentabilidad de la empresa. Además del cumplimiento de la legislación vigente en materia horario-laboral, es esencial para minimizar riesgos de salud laboral y accidentes y reforzar una cultura de transparencia y equidad.
La ley de redes digitales, conocida oficialmente como Digital Networks Act (DNA) o Ley de Redes Digitales, redefine el equilibrio competitivo y regulatorio entre operadoras de telecomunicaciones y grandes plataformas tecnológicas en Europa. Adoptada como propuesta por la Comisión Europea el 21 de enero de 2026, esta iniciativa busca simplificar normas, armonizar el mercado único y acelerar el despliegue de infraestructuras de nueva generación.
La ley de redes digitales no es una norma técnica más, sino que es una pieza clave en la soberanía digital europea y en la redefinición del modelo de financiación de infraestructuras críticas. En este contexto, emerge con fuerza el debate del “Fair Share” o contribución justa, que cuestiona si las grandes plataformas tecnológicas deben participar de forma más directa en la financiación de las redes que soportan su tráfico masivo de datos. Pero el debate que surge ante esta nueva normativa no es solo regulatorio: impacta en estructura de costes, estrategia de inversión, precios finales y sostenibilidad financiera del sector.
La fábrica inteligente, como eje de la transformación digital en el sector industrial, permite la convergencia entre tecnología, estrategia y talento como nunca antes había sido posible. En el contexto de la Industria 4.0, esta evolución no solo afecta a los procesos productivos, sino también a las infraestructuras que los sostienen.
En este punto, los edificios inteligentes y los smart buildings industriales se convierten en una extensión natural del ecosistema conectado. Aprovechando tecnologías digitales como IoT, 5G, Edge Computing y analítica avanzada, la fábrica inteligente integra producción, logística y gestión energética en un modelo unificado, donde el dato fluye en tiempo real desde la planta hasta la dirección estratégica.
Cuando estas herramientas se ponen al servicio del talento humano, hablamos de una reinvención industrial basada en eficiencia, sostenibilidad y optimización de activos. Entender este cambio de paradigma es clave para garantizar crecimiento sostenible, eficiencia operativa y liderazgo industrial.
Hoy el mercado industrial se caracteriza por la volatilidad, la presión sobre los costes energéticos y la necesidad de optimizar cada activo físico. En este escenario, convertir datos en decisiones operativas inmediatas es una ventaja competitiva decisiva.
Comprender cómo la tecnología impacta directamente en la cuenta de resultados del sector retail es clave para garantizar la supervivencia y el crecimiento. Los márgenes son cada vez más estrechos y la presión competitiva se intensifica. En este contexto, la eficiencia operativa ha dejado de ser una herramienta táctica para convertirse en un factor estructural de supervivencia económica.
La combinación de digitalización avanzada, analítica de datos e inteligencia artificial está redefiniendo la forma en que el retail optimiza costes, gestiona inventarios y mejora la experiencia del cliente. Así, la competitividad adquiere una nueva dimensión gracias al retail tech, entendido como el conjunto de tecnologías que permiten transformar datos en decisiones rentables.
La transformación digital del entorno corporativo y urbano está redefiniendo la forma en que concebimos y gestionamos los activos inmobiliarios. Los edificios inteligentes se posicionan como una palanca estratégica para reducir costes, optimizar recursos y avanzar hacia modelos de sostenibilidad medibles.
Los smart buildings representan una evolución estructural en la gestión de infraestructuras. Gracias a la integración de IoT, analítica avanzada y plataformas centralizadas de control, las organizaciones pueden convertir sus inmuebles en entornos conectados capaces de tomar decisiones basadas en datos en tiempo real.
Para directivos, responsables de operaciones y especialistas en facility management, la adopción de edificios smart es una decisión clave para mejorar la rentabilidad y cumplir con los crecientes estándares regulatorios y ambientales, especialmente en organizaciones con carteras inmobiliarias complejas y múltiples sedes operativas.