Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Los límites actuales de la Inteligencia Artificial son físicos, o lo que es lo mismo, donde encuentra mayor freno a su evolución es el soporte de hardware que hace posible la computación con unas exigencias de rendimiento y proceso muy superiores a los cálculos a los que la industria estaba acostumbrada. Además, el escalado de la IA tradicional comienza a chocar con los límites de la sostenibilidad energética. Frente a estas limitaciones, surge una arquitectura disruptiva inspirada en el órgano más eficiente de la naturaleza: el cerebro humano. La computación neuromórfica es una nueva tendencia académica que se ha consolidado como una tecnología esencial la hoja de ruta estratégica para superar los cuellos de botella de la infraestructura convencional, especialmente en entornos donde la eficiencia energética y la capacidad de procesamiento son críticas para el negocio.
A diferencia de la arquitectura clásica de von Neumann, que separa físicamente la memoria del procesamiento provocando latencias críticas, los sistemas neuromórficos integran ambas funciones en neuronas y sinapsis artificiales. Este enfoque permite un procesamiento de información asincrónico y masivamente paralelo. En lugar de operar de forma continua, el sistema solo consume energía cuando detecta un estímulo relevante, lo que se conoce como computación basada en eventos. Es lo que se conoce como redes neuronales de impulsos (SNN), un paradigma que imita los "spikes" eléctricos de la biología para alcanzar niveles de eficiencia energética hasta 100 veces superiores a los de las redes neuronales convencionales, convirtiéndose en un pilar para el desarrollo de una inteligencia artificial sostenible.
El concepto de Gemelo Digital, conocido globalmente como Digital Twins, está emergiendo como una de las tecnologías más transformadoras para todos los sectores, desde la industria, la logística o la energía, a los servicios públicos, la ciberseguridad y las infraestructuras críticas. Un Gemelo Digital es, esencialmente, una réplica virtual dinámica de un activo físico, proceso o sistema completo. Pero no se trata simplemente de un modelo 3D o una simulación avanzada. Lo que lo convierte en una herramienta estratégica es su capacidad de alimentarse continuamente con datos del mundo real, permitiendo observar, analizar y optimizar operaciones en tiempo real.
Esta réplica exacta de un sistema completo es mucho más que un simple back up, o copia de respaldo con la que restaurar un incidente concreto, como un ciberataque. Es todo un banco de pruebas a modo de sandbox en el que se ejecutan simulaciones de todo tipo, desde modelos A/B hasta pruebas de resiliencia frente a ciberataques.
Esta capacidad de anticipación convierte al gemelo digital en una ventaja competitiva clave, ya que permite tomar mejores decisiones basadas en datos vivos que reflejan el comportamiento real del sistema.
Si pensamos en la definición tradicional de red lo primero que nos vendrá a la mente es el concepto de canal o plataforma sobre la que circula algún tipo de información. Puede ser voz o datos, o si regresamos a un concepto anterior más analógico, algún tipo de vehículo o mercancía.
Sin embargo, esta definición está cambiando rápidamente con la llegada de nuevas capacidades como el sensing, que permiten a la red no solo transportar información, sino también interpretarla.
Es decir, hasta ahora, consideramos una red como algo pasivo que soporta un tráfico más o menos activo. Pero las nuevas redes de telecomunicaciones cambiarán esa visión o paradigma porque serán más que meros soportes, para convertirse en un dispositivo más.
Hablamos de redes inteligentes capaces de percibir el entorno físico mediante sensing, una capacidad que marcará la evolución hacia el 6G. Su potencial transformador es tal que conviene empezar a familiarizarse con el concepto cuanto antes.
La digitalización del sistema sanitario europeo está entrando en una nueva fase. El ENDS (Espacio Nacional de Datos de Salud) es la infraestructura que permitirá compartir datos clínicos en España de forma segura e interoperable. En este contexto, el ENDS se posiciona como uno de los pilares clave de esta transformación en España al configurar un ecosistema de datos sanitarios interoperable que integra y protege la información clínica de los ciudadanos.
El ENDS nace como un ecosistema de datos sanitarios interoperable que permitirá a hospitales, centros de salud y profesionales médicos acceder a información clínica relevante con independencia de la comunidad autónoma donde se haya generado. Su despliegue definitivo está previsto para 2026 como parte de la Estrategia de Salud Digital impulsada por el Gobierno español y alineada con las iniciativas europeas de datos sanitarios.
El objetivo es romper las barreras históricas entre sistemas regionales de salud, mejorar la continuidad asistencial y preparar la infraestructura sanitaria para una nueva generación de servicios digitales basados en datos.
Más que una simple base de datos, el ENDS aspira a convertirse en el tejido digital que conecte el sistema sanitario español con el futuro Espacio Europeo de Datos de Salud permitiendo que la información médica acompañe al ciudadano allí donde se encuentre.
En el marco del 5º Congreso de Ciberseguridad de Andalucía, que se celebra en Málaga los días 24 y 25 de marzo de 2026, la protección de infraestructuras críticas vuelve al centro del debate. Vivimos un momento crítico en el que la ciberseguridad se ha convertido en la clave de todo nuestro sistema. Hablamos de un mundo hiperconectado y digitalizado en casi la totalidad de sus procesos. Un sistema que, por tanto, es vulnerable a formas de ataque que interrumpan la normalidad y paralicen la actividad de cualquier sector.
Entornos como Internet de las Cosas multiplican los frentes a defender y la automatización basada en datos y su tratamiento por herramientas de Inteligencia Artificial representan nuevos retos constantes para proteger cualquier infraestructura considerada crítica. En realidad, nuestra economía ha convertido en crítica toda la cadena de suministro y proteger nuestros sistemas digitales es hoy tan esencial como lo fue poner vallas y alarmas en las instalaciones de toda la vida. La ciberseguridad es hoy tan importante que forma parte de la Estrategia Nacional de Defensa. Pero, si hay un sector en el que podamos decir con total certeza que la ciberseguridad salva vidas a diario, es el de la salud y la sanidad.
En esta edición del Vodafone Lab Café, expertos del sector analizan cómo la inteligencia artificial, el IoT y el 5G están transformando la sanidad hacia un modelo más conectado, eficiente y centrado en el paciente.
La tecnología está redefiniendo el presente y el futuro del sector sanitario. En esta nueva sesión de Vodafone Lab Café, grabada en directo el pasado 12 de marzo, analizamos cómo la IA en sanidad, el IoT y el 5G están impulsando una sanidad más conectada, más eficiente y más centrada en el paciente.
En la conversación, moderada por Carlos Becker, Director de Marketing y Desarrollo de Negocio en Vodafone Business, participaron José Pereira, Director de Medios y Responsable de Transformación Digital en Asisa; Cristian Pascual, CEO y cofundador de Mediktor y presidente de Barcelona & Madrid Health Hub; Nerea Míguez, Directora de Desarrollo IoT y Redes Privadas 5G en Vodafone Business; y Pablo Soto, Director del Programa de Inteligencia Artificial e Innovación en Vodafone Business.
El desarrollo de software ha entrado en una nueva fase marcada por la irrupción de la IA generativa aplicada al código. Entre los conceptos que están ganando protagonismo en la industria tecnológica destaca el vibe coding, un enfoque emergente que promete transformar radicalmente la forma en que se construyen aplicaciones.
El vibe coding se basa en la idea sencilla pero disruptiva de desarrollar software describiendo lo que se quiere en lenguaje natural, mientras herramientas de inteligencia artificial generan el código necesario para hacerlo realidad. Plataformas como Cursor o agentes autónomos de desarrollo permiten que el programador actúe más como director creativo del sistema que como autor directo de cada línea de código.
En este nuevo paradigma, el humano define la intención, la arquitectura conceptual o el “vibe” del producto, mientras la IA ejecuta la lógica técnica. El resultado puede ser sorprendente con aplicaciones completas generadas en cuestión de horas.
Esta velocidad introduce un dilema estratégico para empresas tecnológicas y equipos de ingeniería. La misma tecnología que acelera el desarrollo puede también diluir el control sobre lo que ocurre dentro del código. Entre la promesa de productividad y el riesgo de deuda técnica masiva, el debate sobre el vibe coding apenas comienza. Vamos a intentar arrojar un poco de luz en esta cuestión.
El Mobile World Congress (MWC) de Barcelona 2026 no ha sido solo una fecha en el calendario, aunque no haya directivo o profesional interesado en las cuestiones IT que no la tenga marcada año tras año. Se trata del barómetro que define hacia dónde se dirige la economía global, tan ligada a la tecnología, que ya no se entiende ninguna actividad o industria que no esté definida por ella.
Para Vodafone España, la edición MWC 2026 adquirió una dimensión aún más especial al celebrar el 20º aniversario en Barcelona, cita a la que siempre hemos acudido en los más de 25 años de nuestra presencia en España. Este año hemos podido ver, de nuevo, cómo esa presencia que materializa ideas se transforma en acuerdos y pone en valor la tecnología por su impacto en los negocios y las personas. Es momento ahora de hacer un repaso a lo más destacado de nuestra participación en este evento, con un resumen de las presentaciones que llevamos a cabo.
En algunos sectores productivos como la industria menos automatizada, los facility services o la hostelería, la gestión de turnos es la gran cuestión de las operaciones. El core de negocio son los recursos humanos, y organizar el trabajo en turnos cuando estos dependen de múltiples variables puede ser la clave del éxito o del fracaso como negocio. Por supuesto, la función pública no escapa a esta cuestión. En entornos laborales como los de hoy, dinámicos, la gestión del tiempo y de los turnos de trabajo se ha convertido así en un elemento estratégico para las organizaciones. Más allá de ser un requisito administrativo, planificar y controlar eficientemente los turnos laborales impacta de forma directa en la eficiencia operativa, la satisfacción de los empleados y la rentabilidad de la empresa. Además del cumplimiento de la legislación vigente en materia horario-laboral, es esencial para minimizar riesgos de salud laboral y accidentes y reforzar una cultura de transparencia y equidad.
La ley de redes digitales, conocida oficialmente como Digital Networks Act (DNA) o Ley de Redes Digitales, redefine el equilibrio competitivo y regulatorio entre operadoras de telecomunicaciones y grandes plataformas tecnológicas en Europa. Adoptada como propuesta por la Comisión Europea el 21 de enero de 2026, esta iniciativa busca simplificar normas, armonizar el mercado único y acelerar el despliegue de infraestructuras de nueva generación.
La ley de redes digitales no es una norma técnica más, sino que es una pieza clave en la soberanía digital europea y en la redefinición del modelo de financiación de infraestructuras críticas. En este contexto, emerge con fuerza el debate del “Fair Share” o contribución justa, que cuestiona si las grandes plataformas tecnológicas deben participar de forma más directa en la financiación de las redes que soportan su tráfico masivo de datos. Pero el debate que surge ante esta nueva normativa no es solo regulatorio: impacta en estructura de costes, estrategia de inversión, precios finales y sostenibilidad financiera del sector.
La fábrica inteligente, como eje de la transformación digital en el sector industrial, permite la convergencia entre tecnología, estrategia y talento como nunca antes había sido posible. En el contexto de la Industria 4.0, esta evolución no solo afecta a los procesos productivos, sino también a las infraestructuras que los sostienen.
En este punto, los edificios inteligentes y los smart buildings industriales se convierten en una extensión natural del ecosistema conectado. Aprovechando tecnologías digitales como IoT, 5G, Edge Computing y analítica avanzada, la fábrica inteligente integra producción, logística y gestión energética en un modelo unificado, donde el dato fluye en tiempo real desde la planta hasta la dirección estratégica.
Cuando estas herramientas se ponen al servicio del talento humano, hablamos de una reinvención industrial basada en eficiencia, sostenibilidad y optimización de activos. Entender este cambio de paradigma es clave para garantizar crecimiento sostenible, eficiencia operativa y liderazgo industrial.
Hoy el mercado industrial se caracteriza por la volatilidad, la presión sobre los costes energéticos y la necesidad de optimizar cada activo físico. En este escenario, convertir datos en decisiones operativas inmediatas es una ventaja competitiva decisiva.
Comprender cómo la tecnología impacta directamente en la cuenta de resultados del sector retail es clave para garantizar la supervivencia y el crecimiento. Los márgenes son cada vez más estrechos y la presión competitiva se intensifica. En este contexto, la eficiencia operativa ha dejado de ser una herramienta táctica para convertirse en un factor estructural de supervivencia económica.
La combinación de digitalización avanzada, analítica de datos e inteligencia artificial está redefiniendo la forma en que el retail optimiza costes, gestiona inventarios y mejora la experiencia del cliente. Así, la competitividad adquiere una nueva dimensión gracias al retail tech, entendido como el conjunto de tecnologías que permiten transformar datos en decisiones rentables.
La transformación digital del entorno corporativo y urbano está redefiniendo la forma en que concebimos y gestionamos los activos inmobiliarios. Los edificios inteligentes se posicionan como una palanca estratégica para reducir costes, optimizar recursos y avanzar hacia modelos de sostenibilidad medibles.
Los smart buildings representan una evolución estructural en la gestión de infraestructuras. Gracias a la integración de IoT, analítica avanzada y plataformas centralizadas de control, las organizaciones pueden convertir sus inmuebles en entornos conectados capaces de tomar decisiones basadas en datos en tiempo real.
Para directivos, responsables de operaciones y especialistas en facility management, la adopción de edificios smart es una decisión clave para mejorar la rentabilidad y cumplir con los crecientes estándares regulatorios y ambientales, especialmente en organizaciones con carteras inmobiliarias complejas y múltiples sedes operativas.