Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Los ayuntamientos tienen cada vez más procesos digitalizados, lo que incrementa su exposición a ciberamenazas y amplía la superficie de ataque de sus sistemas. Una de las más peligrosas es el ransomware, ya que combina interrupción operativa, crisis reputacional y riesgo sobre los datos sensibles de ciudadanos y empresas.
Ante esta situación, las entidades locales deben desarrollar una estrategia de ciberseguridad que incluya la detección de vulnerabilidades, la prevención y la incorporación de soluciones activas de defensa.
Hasta la llegada de las comunicaciones móviles, las posibilidades de que espiaran tu teléfono eran muy remotas. Prácticamente se limitaban a las escuchas legales ordenadas por un juez, o casos poco probables de espionaje industrial. Y, aun en esos casos, el máximo riesgo que corrías es que una conversación quedará grabada.
Pero en el mundo de los smartphones, que un dispositivo sea infectado con una app de espionaje significa que terceros pueden acceder a una cantidad y variedad de datos e información infinitamente mayor. Fotos, documentos, conversaciones en chats, accesos a otros servicios, conectar con los servidores de tu organización, uso de la cámara y el micrófono… todo lo que haces desde ese terminal que ya no es solo un teléfono, queda expuesto.
Y esa intrusión, que alcanza como sabemos incluso a los gobiernos, afecta a altos directivos, funcionarios públicos o profesionales que manejan información relevante, comprometida y, por tanto, valiosa.
Tras la celebración del 5º Congreso de Ciberseguridad de Andalucía en Málaga, donde se abordaron los principales retos en la protección de infraestructuras críticas, la ciberseguridad vuelve a situarse en el centro del debate. Vivimos un momento crítico en el que la ciberseguridad se ha convertido en la clave de todo nuestro sistema. Nos desenvolvemos en un entorno altamente interconectado y digitalizado en casi la totalidad de sus procesos, que lo hace especialmente vulnerable a ataques capaces de interrumpir la actividad y afectar al funcionamiento de cualquier sector.
La extensión de ámbitos como el Internet de las Cosas amplía considerablemente la superficie de exposición, mientras que la automatización basada en datos y su tratamiento mediante herramientas de Inteligencia Artificial representan nuevos retos constantes para proteger cualquier infraestructura considerada crítica. En este contexto, la economía actual ha convertido en crítica toda la cadena de suministro, haciendo que la protección de los sistemas digitales resulte tan imprescindible hoy como lo fue en su momento la instalación de medidas físicas en seguridad.
La relevancia de la ciberseguridad es ya tan importante que forma parte de la Estrategia Nacional de Defensa. Pero, si hay un sector en el que podamos decir con total certeza que la ciberseguridad salva vidas a diario, es el de la salud y la sanidad.
La ingeniería social es una de las técnicas más utilizadas en el ámbito de la ciberseguridad. A diferencia de las estrategias que se centran en aspectos técnicos, este tipo de acciones se apoyan en el factor más complejo y difícil de prever dentro de cualquier organización: las personas.
En muchos casos, los sistemas de seguridad cuentan con medidas tecnológicas muy avanzadas, por lo que algunos atacantes optan por centrarse en la interacción humana para obtener información, acceder a sistemas o comprender el funcionamiento interno de una organización.
En un contexto marcado por la incertidumbre geopolítica, los eventos climáticos extremos y la creciente dependencia tecnológica, la resiliencia de las infraestructuras críticas se ha convertido en una prioridad estratégica. En este escenario, existe una red que suele pasar desapercibida, pero que sostiene el pulso económico del país: la red de gas en España.
Este fue el eje central del encuentro celebrado en Vodafone Lab Madrid dentro de los Círculos Estratégicos de Vodafone Empresas, conducido por José Antonio Martínez "JAM", Director de Cuentas Estratégicas en Vodafone Business, donde destacados líderes del sector analizaron cómo esta "red invisible" se enfrenta a una transformación sin precedentes marcada por la soberanía energética, la descarbonización y una digitalización masiva que redefine su naturaleza como red crítica.
La digitalización de todos los procesos de la cadena de suministro ha convertido a las redes de comunicaciones en la plataforma que sostiene al resto de infraestructuras críticas del Estado. Cuando todo está conectado, desde los servicios públicos administrativos a la sanidad, las operaciones comerciales, la producción industrial y hasta la defensa nacional, mantener operativos todos los sistemas, los centros de datos, los dispositivos IoT o las comunicaciones por voz, convierte a la red en un elemento clave de la infraestructura crítica sobre el que se concentran todos los esfuerzos por garantizar su robustez y su resiliencia.
Escenarios geoestratégicos inciertos e inestables, eventos meteorológicos como la DANA o incidencias como el apagón de 2025 nos obligan a tomar conciencia de esa necesidad de proteger las operaciones de red y ampliar las posibilidades de conectividad alternativas. Así, la integración del satélite en la estrategia de IT ya no puede considerarse un lujo ni una innovación experimental. Es, cada vez más, un estándar de resiliencia necesario dentro de cualquier arquitectura de infraestructura crítica moderna.
Los límites actuales de la Inteligencia Artificial son físicos, o lo que es lo mismo, donde encuentra mayor freno a su evolución es el soporte de hardware que hace posible la computación con unas exigencias de rendimiento y proceso muy superiores a los cálculos a los que la industria estaba acostumbrada. Además, el escalado de la IA tradicional comienza a chocar con los límites de la sostenibilidad energética. Frente a estas limitaciones, surge una arquitectura disruptiva inspirada en el órgano más eficiente de la naturaleza: el cerebro humano. La computación neuromórfica es una nueva tendencia académica que se ha consolidado como una tecnología esencial la hoja de ruta estratégica para superar los cuellos de botella de la infraestructura convencional, especialmente en entornos donde la eficiencia energética y la capacidad de procesamiento son críticas para el negocio.
A diferencia de la arquitectura clásica de von Neumann, que separa físicamente la memoria del procesamiento provocando latencias críticas, los sistemas neuromórficos integran ambas funciones en neuronas y sinapsis artificiales. Este enfoque permite un procesamiento de información asincrónico y masivamente paralelo. En lugar de operar de forma continua, el sistema solo consume energía cuando detecta un estímulo relevante, lo que se conoce como computación basada en eventos. Es lo que se conoce como redes neuronales de impulsos (SNN), un paradigma que imita los "spikes" eléctricos de la biología para alcanzar niveles de eficiencia energética hasta 100 veces superiores a los de las redes neuronales convencionales, convirtiéndose en un pilar para el desarrollo de una inteligencia artificial sostenible.
El concepto de Gemelo Digital, conocido globalmente como Digital Twins, está emergiendo como una de las tecnologías más transformadoras para todos los sectores, desde la industria, la logística o la energía, a los servicios públicos, la ciberseguridad y las infraestructuras críticas. Un Gemelo Digital es, esencialmente, una réplica virtual dinámica de un activo físico, proceso o sistema completo. Pero no se trata simplemente de un modelo 3D o una simulación avanzada. Lo que lo convierte en una herramienta estratégica es su capacidad de alimentarse continuamente con datos del mundo real, permitiendo observar, analizar y optimizar operaciones en tiempo real.
Esta réplica exacta de un sistema completo es mucho más que un simple back up, o copia de respaldo con la que restaurar un incidente concreto, como un ciberataque. Es todo un banco de pruebas a modo de sandbox en el que se ejecutan simulaciones de todo tipo, desde modelos A/B hasta pruebas de resiliencia frente a ciberataques.
Esta capacidad de anticipación convierte al gemelo digital en una ventaja competitiva clave, ya que permite tomar mejores decisiones basadas en datos vivos que reflejan el comportamiento real del sistema.
Si pensamos en la definición tradicional de red lo primero que nos vendrá a la mente es el concepto de canal o plataforma sobre la que circula algún tipo de información. Puede ser voz o datos, o si regresamos a un concepto anterior más analógico, algún tipo de vehículo o mercancía.
Sin embargo, esta definición está cambiando rápidamente con la llegada de nuevas capacidades como el sensing, que permiten a la red no solo transportar información, sino también interpretarla.
Es decir, hasta ahora, consideramos una red como algo pasivo que soporta un tráfico más o menos activo. Pero las nuevas redes de telecomunicaciones cambiarán esa visión o paradigma porque serán más que meros soportes, para convertirse en un dispositivo más.
Hablamos de redes inteligentes capaces de percibir el entorno físico mediante sensing, una capacidad que marcará la evolución hacia el 6G. Su potencial transformador es tal que conviene empezar a familiarizarse con el concepto cuanto antes.
La digitalización del sistema sanitario europeo está entrando en una nueva fase. El ENDS (Espacio Nacional de Datos de Salud) es la infraestructura que permitirá compartir datos clínicos en España de forma segura e interoperable. En este contexto, el ENDS se posiciona como uno de los pilares clave de esta transformación en España al configurar un ecosistema de datos sanitarios interoperable que integra y protege la información clínica de los ciudadanos.
El ENDS nace como un ecosistema de datos sanitarios interoperable que permitirá a hospitales, centros de salud y profesionales médicos acceder a información clínica relevante con independencia de la comunidad autónoma donde se haya generado. Su despliegue definitivo está previsto para 2026 como parte de la Estrategia de Salud Digital impulsada por el Gobierno español y alineada con las iniciativas europeas de datos sanitarios.
El objetivo es romper las barreras históricas entre sistemas regionales de salud, mejorar la continuidad asistencial y preparar la infraestructura sanitaria para una nueva generación de servicios digitales basados en datos.
Más que una simple base de datos, el ENDS aspira a convertirse en el tejido digital que conecte el sistema sanitario español con el futuro Espacio Europeo de Datos de Salud permitiendo que la información médica acompañe al ciudadano allí donde se encuentre.
En esta edición del Vodafone Lab Café, expertos del sector analizan cómo la inteligencia artificial, el IoT y el 5G están transformando la sanidad hacia un modelo más conectado, eficiente y centrado en el paciente.
La tecnología está redefiniendo el presente y el futuro del sector sanitario. En esta nueva sesión de Vodafone Lab Café, grabada en directo el pasado 12 de marzo, analizamos cómo la IA en sanidad, el IoT y el 5G están impulsando una sanidad más conectada, más eficiente y más centrada en el paciente.
En la conversación, moderada por Carlos Becker, Director de Marketing y Desarrollo de Negocio en Vodafone Business, participaron José Pereira, Director de Medios y Responsable de Transformación Digital en Asisa; Cristian Pascual, CEO y cofundador de Mediktor y presidente de Barcelona & Madrid Health Hub; Nerea Míguez, Directora de Desarrollo IoT y Redes Privadas 5G en Vodafone Business; y Pablo Soto, Director del Programa de Inteligencia Artificial e Innovación en Vodafone Business.
El desarrollo de software ha entrado en una nueva fase marcada por la irrupción de la IA generativa aplicada al código. Entre los conceptos que están ganando protagonismo en la industria tecnológica destaca el vibe coding, un enfoque emergente que promete transformar radicalmente la forma en que se construyen aplicaciones.
El vibe coding se basa en la idea sencilla pero disruptiva de desarrollar software describiendo lo que se quiere en lenguaje natural, mientras herramientas de inteligencia artificial generan el código necesario para hacerlo realidad. Plataformas como Cursor o agentes autónomos de desarrollo permiten que el programador actúe más como director creativo del sistema que como autor directo de cada línea de código.
En este nuevo paradigma, el humano define la intención, la arquitectura conceptual o el “vibe” del producto, mientras la IA ejecuta la lógica técnica. El resultado puede ser sorprendente con aplicaciones completas generadas en cuestión de horas.
Esta velocidad introduce un dilema estratégico para empresas tecnológicas y equipos de ingeniería. La misma tecnología que acelera el desarrollo puede también diluir el control sobre lo que ocurre dentro del código. Entre la promesa de productividad y el riesgo de deuda técnica masiva, el debate sobre el vibe coding apenas comienza. Vamos a intentar arrojar un poco de luz en esta cuestión.
El Mobile World Congress (MWC) de Barcelona 2026 no ha sido solo una fecha en el calendario, aunque no haya directivo o profesional interesado en las cuestiones IT que no la tenga marcada año tras año. Se trata del barómetro que define hacia dónde se dirige la economía global, tan ligada a la tecnología, que ya no se entiende ninguna actividad o industria que no esté definida por ella.
Para Vodafone España, la edición MWC 2026 adquirió una dimensión aún más especial al celebrar el 20º aniversario en Barcelona, cita a la que siempre hemos acudido en los más de 25 años de nuestra presencia en España. Este año hemos podido ver, de nuevo, cómo esa presencia que materializa ideas se transforma en acuerdos y pone en valor la tecnología por su impacto en los negocios y las personas. Es momento ahora de hacer un repaso a lo más destacado de nuestra participación en este evento, con un resumen de las presentaciones que llevamos a cabo.