La eficacia de la publicidad online está demostrada por todas aquellas empresas que apuestan por ella en sus estrategia de marketing, ante la evidencia de que vivimos en un entorno digital donde los posibles clientes se desenvuelven a diario. Quien analice sus propios datos de tráfico web, ventas en tiendas en línea o retorno de la inversión con activación de su retail físico sabrá hasta qué punto logra rendimientos reales en sus campañas, pero quedaba por demostrar la fiabilidad de los mismos sistemas de medición.
Investigadores de la Northwestern University y Facebook publicaron en marzo una nueva investigación en la revista INFORMS Marketing Science que arroja luz sobre si los enfoques comunes para la medición de publicidad en línea son tan confiables y precisos como el «estándar de oro» de los experimentos aleatorios a gran escala.
El estudio se titula «Una comparación de enfoques para la medición de la publicidad: Evidencia de Big Field Experiments en Facebook» (A Comparison of Approaches to Advertising Measurement: Evidence from Big Field Experiments at Facebook) y está escrito por Brett Gordon, de la Northwestern University; Florian Zetttelmeyer de la Northwestern University y la Oficina Nacional de Investigación Económica; y Neha Bhargava y Dan Chapsky de Facebook.
«Nuestros hallazgos sugieren que los enfoques de observación de uso común que se basan en datos generalmente disponibles para los anunciantes a menudo no miden con precisión el efecto real de la publicidad», dijo Brett Gordon.
Los enfoques observacionales son aquellos que abarcan una amplia clase de modelos estadísticos que se basan en los datos «tal como son», generados sin manipulación explícita a través de un experimento aleatorio.
«Encontramos una diferencia significativa en la efectividad de los anuncios obtenida de los ensayos de control aleatorios y los métodos de observación que los anunciantes utilizan con frecuencia para evaluar sus campañas», agregó Zettelmeyer.
“En general, los métodos actuales y más comunes sobreestiman la efectividad de los anuncios en relación con lo que encontramos en nuestras pruebas aleatorias. Aunque en algunos casos, subestiman significativamente la efectividad «.
Medir la efectividad de la publicidad online sigue siendo un problema importante para muchas empresas
Una pregunta clave es si una campaña publicitaria produjo resultados incrementales: ¿compraron más consumidores porque vieron un anuncio, o muchos de esos consumidores lo habrían comprado incluso en ausencia del anuncio? La obtención de una medida precisa de los resultados incrementales («conversiones») ayuda a un anunciante a calcular el retorno de la inversión (ROI) de la campaña.
«Las plataformas digitales que transmiten publicidad, como Facebook, han creado medios integrales para evaluar la efectividad de los anuncios, utilizando datos granulares que vinculan las exposiciones de los anuncios, los clics, las visitas a las páginas, las compras en línea e incluso las compras fuera de línea», dijo Gordon. «Aun así, incluso con estos datos, medir el efecto causal de la publicidad requiere la plataforma de experimentación adecuada».
Los autores del estudio utilizaron datos de 15 experimentos de publicidad de EE. UU. En Facebook, que comprenden 500 millones de observaciones de experimentos de usuarios y 1.600 millones de impresiones de anuncios.
La plataforma de experimentación de «conversión de conversión» de Facebook ofrece a los anunciantes la capacidad de realizar experimentos controlados aleatorios para medir el efecto causal de una campaña publicitaria en los resultados de los consumidores.
Estos experimentos asignan al azar a los usuarios a un grupo de control, que nunca están expuestos al anuncio, y a un grupo de prueba, que son elegibles para ver el anuncio. La comparación de los resultados entre los grupos proporciona el efecto causal del anuncio porque la aleatorización garantiza que los dos grupos sean, en promedio, equivalentes, excepto las exposiciones de publicidad en el grupo de prueba. Los resultados experimentales de cada campaña publicitaria sirvieron como una línea de base con la cual evaluar métodos comunes de observación.
Los métodos de observación comparan los resultados entre los usuarios que fueron expuestos al anuncio y los usuarios que no estaban expuestos. Estos dos grupos de usuarios tienden a diferir sistemáticamente de muchas maneras, como la edad y el género. Estas diferencias en las características pueden ser observables porque el anunciante (o su plataforma de publicidad) a menudo tiene acceso a estas características y otras, por ejemplo, además de saber el género y la edad de un usuario en línea, es posible observar el tipo de dispositivo. en uso, la ubicación del usuario, cuánto tiempo ha pasado desde la última vez que lo visitó, etc. Sin embargo, la parte difícil es que los grupos expuestos y no expuestos también pueden diferir en formas que son muy difíciles de medir, como los usuarios subyacentes Afinidad por la marca. Decir que el anuncio “causó” un efecto requiere que la investigación pueda explicar las diferencias observadas y no observadas entre los dos grupos. Los métodos de observación utilizan datos sobre las características de los usuarios que se observan para intentar ajustar las diferencias observables y no observables.
«Nos propusimos determinar si, como se cree comúnmente, los métodos de observación actuales que usan datos completos a nivel individual son ‘lo suficientemente buenos’ para la medición de anuncios», dijo Zettelmeyer. «Lo que descubrimos fue que incluso datos bastante completos resultan inadecuados para producir estimaciones confiables de los efectos publicitarios».
«En principio, creemos que el uso de ensayos controlados aleatorios a gran escala para evaluar la efectividad de la publicidad debería ser el método preferido para los anunciantes siempre que sea posible».
Ventas Off Line que proceden del On Line
Un informe previo de 2017 de la revista INFORMS de Marketing Science determinó que los anuncios online pueden aumentar las ventas minoristas en línea y fuera de línea, lo que proporciona información valiosa para futuras decisiones de marketing. El estudio titulado «Cuando menos es más: datos y poder en experimentos publicitarios» (When Less is More: Data and Power in Advertising Experiments) fue escrito por Garrett Johnson de la Universidad de Rochester, Randall Lewis de Netflix y David Reiley de Pandora, quienes estaban realizando una investigación para Yahoo! En el momento del estudio.
El Yahoo! los investigadores trabajaron con un minorista nacional de ropa sin nombre para evaluar los efectos de la publicidad del minorista. Colaboraron en un experimento de campo a gran escala que involucró a más de 3 millones de usuarios de Yahoo!. Durante dos semanas, los usuarios del grupo de tratamiento del experimento vieron anuncios de ropa de marca del minorista, mientras que los usuarios del grupo de control vieron anuncios de Yahoo!. En relación con la línea de base establecida por el grupo de control, el experimento mostró que la campaña del minorista aumentó las ventas en un 3,6 por ciento o aproximadamente tres veces el gasto del minorista en publicidad.
Reiley dijo: «Este minorista de ropa nos abordó con un problema interesante:» ¿Cómo puedo saber si mis anuncios en línea funcionan cuando el 90 por ciento de mis ventas están fuera de línea? «
Los autores atacaron este problema haciendo coincidir los registros de los clientes entre el minorista y Yahoo!. Es importante destacar que los autores combinaron los datos de ventas en línea y fuera de línea a nivel de cliente con un experimento controlado que les permitió evaluar cuánto habrían comprado los consumidores en ausencia de la campaña publicitaria. Determinaron que el 84 por ciento del aumento de ventas de los anuncios provino de ventas fuera de línea. Reiley agregó: “Sin el experimento, el minorista podría haber llegado a la conclusión errónea de que los anuncios solo aumentaron las ventas en línea y no las ventas fuera de línea. Irónicamente, esto podría haber llevado a una subinversión en publicidad en línea «.
El estudio señala que su novedoso diseño experimental puede ser valioso para las empresas que buscan medir la efectividad de la publicidad. Lewis señaló: «Antes realizábamos experimentos con este minorista, pero este fue el experimento más grande en el que usamos ‘anuncios de control’ para determinar qué miembros del grupo de control habrían visto los anuncios. Esto nos permitió ignorar el ruido estadístico de las compras de consumidores que nunca vieron los anuncios. También descubrimos que solo necesitábamos ver las ventas después del primer anuncio porque un anuncio solo puede afectarle después de haberlo visto. Estos dos trucos nos permitieron mejorar la precisión estadística de los beneficios estimados de la publicidad en línea «.
La mejora en la precisión del uso de anuncios de control es de vital importancia para los gerentes que toman decisiones publicitarias. Johnson explicó: “Las estimaciones de la efectividad de los anuncios tienden a ser pequeñas, pero también imprecisas. Incluso con un estudio de 3 millones de usuarios, los métodos estándar para mejorar la precisión al controlar el comportamiento y la demografía del cliente fueron menos efectivos de lo que se esperaba. Sin embargo, al hacer un uso completo de los anuncios de control, mejoramos aún más en seis veces la precisión estadística de nuestras estimaciones de efectos de anuncios. Para los gerentes, esta mejora podría ser el factor decisivo para saber si la publicidad en línea tiene un impacto positivo claro y estadísticamente significativo. Esperamos que las ideas en nuestro diseño puedan ayudar a las empresas a invertir con confianza en campañas publicitarias cuando es probable que sean rentables «.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
El proceso de digitalización que están abordando las Administraciones Públicas avanza a gran velocidad, pero también lo hace la sofisticación de los ciberataques y el endurecimiento del marco normativo europeo. En este contexto, la identidad digital centralizada se consolida como una pieza fundamental para que las administraciones y organismos públicos puedan cumplir con las exigencias de la Directiva NIS2 y reforzar tanto sus procesos como la confianza ciudadana en los servicios electrónicos que prestan.
Vivimos un momento apasionante lleno de oportunidades marcadas por numerosos factores tanto sociales como económicos y hasta políticos. La transformación de los modelos de negocio y la creación de otros nuevos que impulsa la Digitalización convive, sin que a veces sepamos muy bien cuál es la causa y cuál el efecto, con una sucesión de acontecimientos que nos ponen a prueba cada día: desde la adaptación a nuevas demandas y competencias, hasta la capacidad de resiliencia y robustez de nuestra operativa, convertida ya en una red crítica. Y a todos esos retos propios del puro mercado, sumamos la obligada adaptación a las normativas y marcos regulatorios que, desde las autoridades propias y supranacionales, lanzan para tratar de contener todo ese entorno disruptivo que ha dejado atrás la volatilidad y la incertidumbre para convertirse directamente en imprevisible y a veces, incomprensible.
Sin duda, la velocidad de innovación y la capacidad de respuesta ya no son meras opciones para los más aventureros, sino imperativos de supervivencia en un mercado que es exigente por los cuatro costados. Aunque, reconozcámoslo, a veces puede darnos vértigo enfrentarnos a esos cambios.
Por poner un ejemplo reciente de cómo la tecnología transforma las exigencias y al mismo tiempo nos ofrece la solución, el reto de los próximos meses será evolucionar la atención al cliente en una palanca de competitividad estratégica que cubra al mismo tiempo las expectativas de los clientes y las exigencias de las administraciones. Me refiero a la nueva Ley de Atención al Cliente, que obliga a las empresas a responder a sus clientes en un tiempo máximo de 3 minutos y redefine las reglas del juego.
Los departamentos de marketing ya nos habían avisado de que el consumidor de hoy demandaba, mejor dicho, exigía, una atención directa, personalizada y en tiempo real acostumbrado al uso de nuevos canales, como las redes sociales o las apps de mensajería. Pensar que podíamos dejar en espera sus cuestiones, que para ellos ya son casi siempre urgentes, podía ser una opción para quien no pudiera o quisiera ser especialmente competitivo. Pero, como dije al principio, ya no es una opción. La disponibilidad y la inmediatez ya no son solo ventajas competitivas, sino una exigencia legal de obligado cumplimiento. En este escenario, las estructuras tradicionales de atención humana resultan, en muchos casos, insuficientes para garantizar la escalabilidad necesaria sin comprometer la rentabilidad.
Aquí es donde los agentes de Inteligencia Artificial aplicados a la voz se vuelven fundamentales. Gracias a los modelos de lenguaje (LLM), la IA está aprendiendo a entender el lenguaje humano de forma normativa, captando acentos, entonaciones e incluso jergas. Esta capacidad permite desplegar sistemas de atención que no solo son rápidos, sino que operan de forma natural, permitiendo que la tecnología sea un facilitador de la comunicación. Al integrar estos agentes en la atención telefónica, las empresas pueden eficientar sus procesos, resolviendo consultas recurrentes de forma autónoma y liberando al talento humano para tareas de mayor valor añadido.
Sin embargo, la IA por sí sola no es una solución completa ya que la propia normativa obliga a que las empresas atiendan a las personas con personas. El uso de bots no es ya una alternativa real en muchos casos y es cuando la tecnología “de toda la vida”, como es la telefonía de voz, debe también adaptarse a los nuevos tiempos en los que tiene dos retos importantes: combinarse con los datos y mantener las ventajas de la movilidad y deslocalización del trabajo. Para dar respuesta a ambos retos vamos a ver cómo soluciones de las que somos pioneros y líderes desde hace 20 años en Vodafone, como la Centralita Virtual One Net y la conectividad avanzada, permiten rediseñar los flujos de atención para que sean verdaderamente multicanal.
El tercero de los factores que serán importantes en los próximos meses es, en realidad, el que habilita los anteriores. La robustez de la propia red y su capacidad de resiliencia ante un entorno digital donde las vulnerabilidades y los riesgos en la rotura de cadenas de producción, suministro, logística o venta proceden tanto de fenómenos naturales, como la pasada DANA, de cuestiones complejas, como el gran apagón, o el aumento de la ciberdelincuencia o las amenazas geoestratégicas.
Todas estas cuestiones requieren una visión estratégica de la red, tanto en la labor preventiva como en la responsiva. Para lo primero, Vodafone ha sido reconocida como la red que mejor soportó los efectos del citado apagón por tiempo de mantenimiento del servicio y rapidez en la restitución y seguimos trabajando para que sea aún más robusta en caso de que vuelva a ocurrir. Para lo segundo, hemos creado una unidad especializada en ciberseguridad con una red federada de SOC que no solo vela por nuestros clientes sino que colabora con las instituciones oficiales y la ciberdefensa nacional. También aquí, el uso de la IA será clave en avanzar en la transformación en la que estamos inmersos.
Todos los retos y soluciones que he ido planteando hasta ahora no tendrían mucho sentido si no fuera para trasladarlos a nuestros clientes. La complejidad de estos desafíos hace que el modelo de proveedor tradicional esté obsoleto. Ahora, la clave del éxito radica en la colaboración estrecha y la cocreación con socios tecnológicos que actúen como asesores estratégicos. No se trata solo de comprar tecnología, sino de construir juntos soluciones que aporten resiliencia y mejora continua.
Una visión que, no por casualidad, es la que nos mueve desde hace 25 años cuando aterrizamos en el mercado y gracias a la cual, estamos orgullosos de haber acompañado a empresas y administraciones públicas a transformarse y transformarnos como país.
En los próximos meses, se ampliará la brecha entre las empresas que ven la tecnología como un gasto y aquellas que entendemos que cuestiones como los agentes de IA de voz, la red inteligente y la multicanalidad son los pilares de una organización eficiente, segura y, sobre todo, centrada en el cliente. Una cosa tengo clara: La transformación constante es la nueva forma de entender los negocios, y hacerlo en solitario hace el camino más lento y difícil. Si quieres que te acompañemos, cuenta con nosotros.
Cuando pensamos en el uso de Inteligencia Artificial en el ámbito de la salud, inmediatamente nos viene a la cabeza el último avance en detección temprana, la aceleración de cualquier investigación sobre las causas de una patología o en el desarrollo de un fármaco en tiempo récord. Esta es, sin duda, la parte más visible de la IA sanitaria y la que llega como eslabón final de la cadena al ciudadano.
Sin embargo, las ventajas de los algoritmos y la automatización que permiten los sistemas de IA van mucho más allá, ya están transformando profundamente la forma en que entendemos el cuidado de la salud y los procedimientos de atención sanitaria, tanto públicos como privados. El verdadero impacto de la Inteligencia Artificial no se mide solo en avances clínicos, sino en su capacidad para rediseñar todo el sistema sanitario y hacerlo más sostenible, eficiente y equitativo.
A continuación, analizamos cómo está impactando según los diferentes grupos de interés implicados: pacientes, sanitarios, industria y administraciones públicas.
El uso de canales directos de comunicación con clientes y usuarios es una de las estrategias de marketing y CRM más eficaces, precisamente por la cercanía y la inmediatez que permiten establecer. Bien integrados dentro de una estrategia omnicanal, su impacto está ampliamente demostrado gracias a su capacidad de segmentación, personalización y oportunidad.
Con la llegada de la nueva generación de mensajes RCS (Rich Communication Services), que comenzó como exclusivo de Android y que ya está disponible para iOS, hay dos principales: la mejora en capacidades multimedia e interactividad, y un modelo de seguridad reforzado.
En un mundo digital marcado por la saturación de impactos y el aumento constante de las amenazas, la confianza se ha convertido en un factor decisivo en la relación entre empresas y clientes. Y los canales tradicionales de mensajería ya no son suficientes para responder a consumidores que exigen seguridad, inmediatez y experiencias fluidas.
En el marco de la Estrategia Digital Europea, las instituciones públicas juegan un papel fundamental como catalizadores de la infraestructura digital, la interoperabilidad y la seguridad jurídica. La digitalización de las administraciones no solo mejora la relación con la ciudadanía, sino que define la capacidad del sector público para ofrecer servicios más eficientes, coordinados y alineados con los estándares europeos.
Para evaluar este avance de forma homogénea en todos los Estados miembros, la Comisión Europea publica anualmente las Fichas Técnicas de la Administración Pública Digital o APD. Estos documentos son informes técnicos de diagnóstico que permiten conocer el grado de madurez digital de cada país y entender cómo evolucionan aspectos esenciales como la gobernanza electrónica, la interoperabilidad o los servicios digitales.
Desde la pandemia, las empresas han adoptado modelos de trabajo híbrido que integran la flexibilidad del teletrabajo con la colaboración presencial para optimizar la productividad y la cohesión del equipo.
Sin embargo, esta nueva realidad ha traído consigo un gran reto: proteger la información y las conexiones cuando los empleados trabajan desde cualquier lugar. Es aquí donde entra en juego Zero Trust, un enfoque que se posiciona como la respuesta más eficaz para garantizar la seguridad en un entorno cada vez más distribuido y dinámico.
Hasta hace poco, pensar en una infraestructura crítica cuya continuidad operativa fuera vital se limitaba a entornos como la defensa, la sanidad o los suministros básicos de servicios esenciales como la energía o el agua. Estos ámbitos se asociaban tradicionalmente a la prestación de servicios imprescindibles para la sociedad, con altos niveles de exigencia en términos de disponibilidad y seguridad.
Sin embargo, en un entorno empresarial y tecnológico cada vez más digitalizado, las redes críticas han ampliado su alcance para incluir a las infraestructuras de telecomunicaciones y los servicios digitales esenciales para la operativa de empresas, organizaciones y administraciones públicas. Hoy, estas redes se han convertido en pilares fundamentales de la continuidad del negocio y de la provisión de servicios básicos a la sociedad.
Su disponibilidad, integridad y resiliencia se han convertido en uno de los objetivos preferidos de los ciberataques, y acontecimientos recientes, como los vividos con la DANA o el gran apagón, demuestran que ya no se trata solo de un activo estratégico, sino de una necesidad operativa y, cada vez más, regulatoria. En un contexto en el que cualquier interrupción puede tener un impacto económico, social y reputacional severo, la red de telecomunicaciones es en sí misma una infraestructura crítica que soporta a muchas otras igualmente esenciales. Veamos con más detalle sus principales retos y oportunidades.
La digitalización ha convertido la conectividad en un pilar crítico de la operatividad empresarial, y cualquier interrupción en el servicio de red puede traducirse en impactos económicos, operativos y reputacionales significativos. Un fallo en la red puede producirse por muchas razones y algunas de ellas son imposibles de prever o evitar, especialmente cuando responden a factores externos al operador.
Así quedó demostrado recientemente con episodios como el apagón eléctrico en la Península Ibérica o la DANA, dos dos situaciones excepcionales que pusieron a prueba la capacidad de respuesta de organizaciones y servicios esenciales. Estos acontecimientos dejaron una lección clara: toda medida de precaución es poca, y han situado la resiliencia operativa como uno de los grandes objetivos estratégicos para 2026.
Pero, ¿cómo se construye esa resiliencia? Imagina que tus telecomunicaciones y tu entorno digital contaran con un sistema similar al de las luces de emergencia de un edificio de oficinas: una solución que permanece en segundo plano sin generar apenas consumo ni interferencias, pero que se activa automáticamente cuando falla el suministro principal, garantizando que la actividad y la seguridad no se vean interrumpidas ni un segundo. Del mismo modo que se instalan estos sistemas de respaldo en oficinas o entornos industriales, hoy es posible garantizar la conectividad móvil incluso cuando la red principal falla. Eso es Always On de Vodafone.
Atreverse a hacer predicciones en el terreno de la tecnología aplicada a los negocios, en un mundo que hace tiempo navega a velocidad supersónica y pasó de los entornos VUCA a los BANI (Brittle, Anxious, Nonlienar, Incomprenhensible) puede parecer un ejercicio meramente futurista.
Sin embargo, precisamente por esa velocidad de innovación y adopción de novedades que caracteriza nuestros días, podemos apostar a que algunas de las tendencias que han ido apareciendo a lo largo de 2025 se harán realidad y normalizarán en los próximos meses. En todo caso, la intención de esta enumeración es servir de inspiración a nuevas iniciativas, modelos de negocio y servicios a los ciudadanos. Acompáñanos por un viaje apasionante en 26 etapas por un mundo que se redefine aceleradamente bajo las fuerzas de la digitalización, la conectividad y la automatización.
El mantenimiento predictivo impulsado por IA es una herramienta tecnológica capaz de impulsar la eficiencia y la ventaja competitiva empresarial como nunca antes, en un mundo donde anticiparse marca la diferencia entre liderar o quedarse atrás. La digitalización de la industria y de los servicios esenciales está redefiniendo la forma en que las organizaciones gestionan sus activos, donde la disponibilidad continua es un requisito estratégico.
En este nuevo marco operativo, el mantenimiento predictivo apoyado en Inteligencia Artificial (IA) se ha consolidado como una de las aplicaciones con mayor impacto real sobre la optimización de costes y tiempos o la resiliencia de las infraestructuras críticas son ya objetivos irrenunciables. Ya no es una promesa tecnológica, sino una palanca competitiva que permite anticiparse a los fallos antes de que afecten al negocio o al servicio público.
La gestión de la cadena de suministro es uno de los elementos más críticos en la estrategia de ciberseguridad de cualquier gran empresa, ya que concentra una parte significativa del riesgo operativo. Como han demostrado incidentes recientes (como los sufridos por Iberia o los aeropuertos europeos), un solo punto débil en la red de proveedores puede poner en riesgo las operaciones de grandes compañías.
La Directiva NIS2 busca, precisamente, elevar la ciberseguridad a un nivel regulatorio sin precedentes en la Unión Europea, extendiendo la responsabilidad más allá de los límites internos de la empresa. Esta normativa transforma la gestión de riesgos de terceros, conocida como TPRM (Third-Party Risk Management), en una obligación ineludible para garantizar la resiliencia digital.
Además, la directiva establece la obligación de que los órganos de dirección se hagan explícitamente responsables de la supervisión de las medidas de ciberseguridad, incluidos los controles aplicados a los proveedores, lo que convierte a la TPRM en una responsabilidad estratégica y no solo operativa.
Los sistemas de inteligencia artificial basados en los llamados modelos de lenguaje (LLM), como GPT4 o Copilot, funcionan gracias a que pueden aprender y utilizar el lenguaje humano. El reto para una máquina es entender que los humanos utilizamos el lenguaje de forma normativa, con distintos acentos y entonaciones, y que usamos jergas o slang. Por ello, gran parte de la investigación científica dedicada al desarrollo de estos modelos se destina a lograr que el algoritmo funcione de la forma más natural posible.
Una de las líneas de trabajo consiste en comprender que, cuando un algoritmo aprende desde cero, lo hace igual que un bebé al nacer. Pero estas máquinas aprenden de cantidades astronómicas de información lingüística, mucho mayor que la que reciben los niños cuando aprenden a comprender y hablar un idioma. Para entender la magnitud de esta cuestión bastan las cifras: los mejores sistemas de inteligencia artificial se entrenan con textos de billones de palabras, mientras que los niños reciben solo millones por año.
La entrada en vigor del Reglamento de IA de la UE marca un antes y un después para el uso corporativo de la Inteligencia Artificial. Para las grandes empresas y organizaciones, adoptar un enfoque de compliance no es solo una obligación legal, sino una oportunidad estratégica para mejorar la gobernanza, fortalecer la confianza, reducir riesgo reputacional y prepararse para competir con responsabilidad y resiliencia en la economía digital. Pero, ojo, que lejos de ser un proceso voluntario, la no aplicación de este nuevo reglamento conlleva algunas de las sanciones más duras hasta la fecha, lo que refuerza la urgencia de una adaptación rigurosa. En este artículo te contamos todo lo que tienes que saber cuanto antes.