Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
España se encuentra ante un punto de inflexión en la gestión del agua. A la presión creciente del cambio climático, las sequías recurrentes y el envejecimiento de las infraestructuras, se suma ahora una oportunidad histórica: el Proyecto Estratégico para la Recuperación y Transformación Económica (PERTE) del Ciclo del Agua. Con más de 3.000 millones de euros movilizados, el PERTE ofrece el impulso necesario para digitalizar de forma integral el sector hídrico. Y en el centro de esta transformación se encuentra una tecnología que ya está revolucionando otros sectores: el Internet de las Cosas (IoT).
Los datos hablan por sí solos: un cuarto de las tuberías en España tiene más de 40 años y apenas un 17% ha sido renovado en la última década. Este envejecimiento conlleva fugas, roturas y averías que suponen pérdidas diarias de hasta 38 litros por habitante. En total, más de 695.000 millones de litros de agua se pierden al año, según el INE. Y cada gota cuenta. En paralelo, muchas redes urbanas siguen gestionándose con sistemas analógicos, lo que dificulta una respuesta ágil y basada en datos.
No se trata solo de evitar el despilfarro. La gestión deficiente del agua conlleva costes operativos elevados, sobrecarga energética y una menor resiliencia ante sequías, olas de calor o episodios extremos. Ante este panorama, la digitalización del ciclo del agua ya no es solo una opción: es una necesidad estratégica.
La tecnología háptica, o la capacidad de sentir y tocar en el mundo digital, ha dado un gran paso adelante gracias a un innovador desarrollo en el campo de la realidad virtual (VR) y aumentada (AR). Un equipo de investigación liderado por el profesor Park Jang-Ung del Instituto de Ciencias Básicas (IBS) ha desarrollado una tecnología que promete sensaciones táctiles uniformes y precisas en pantallas transparentes, algo que podría revolucionar la interacción entre los usuarios y los dispositivos inteligentes.
El IoT se ha convertido en una herramienta concreta y rentable que automatiza y realiza procesos a distancia, más allá del mero dispositivo conectado, y transforma datos en conocimiento, ayudando así a la toma de decisiones estratégicas. Las empresas que apuesten por soluciones de análisis IoT no solo mejorarán su eficiencia y rentabilidad, sino que estarán mejor preparadas para anticiparse al futuro y adaptarse a un mercado cada vez más competitivo y digital.
Los datos son, hoy más que nunca, el activo más valioso de cualquier organización. Pero su verdadero poder radica en la capacidad de convertirlos en conocimiento útil para tomar decisiones ágiles, reducir costes y anticiparse al cambio. El Internet de las Cosas y sus soluciones de análisis de datos son la clave para lograrlo. Si aún no has comenzado a utilizar IoT o quieres saber cuál será el siguiente paso, sigue leyendo.
La eficiencia empresarial hoy no se mide solo por la reducción de costes, sino por la capacidad de adaptarse, innovar y escalar rápidamente. Integrar soluciones SaaS en entornos de nube flexible permite a las organizaciones combinar lo mejor del software moderno con infraestructuras tecnológicas altamente adaptables. Para las empresas que desean mantenerse competitivas y preparadas para el futuro, esta combinación no es una opción: es una necesidad estratégica.
De esta forma, los modelos SaaS (Software as a Service) dentro de entornos de nube flexibles, se han consolidado como una estrategia clave para mejorar la eficiencia operativa. Este artículo explora distintos modelos como la Cloud Privada, la Cloud Pública y los servicios profesionales que se acompañan para aplicarlos en el día a día de forma personalizada.
A partir del 1 de enero de 2026 todos los vehículos que circulen por las carreteras españolas deberán llevar un nuevo dispositivo de seguridad. Se trata de una baliza de emergencia luminosa que además está conectada por IoT para que la incidencia esté geolocalizada y las asistencias puedan llegar antes al lugar. Esta novedad en las normas de tráfico afecta de lleno a las flotas profesionales, que deberán adaptarse a un cambio normativo en materia de seguridad vial. La Dirección General de Tráfico (DGT) ha establecido que los tradicionales triángulos de emergencia dejarán de ser válidos a partir del año que viene, para señalizar averías o accidentes en carretera, siendo reemplazados por la baliza v16 homologada con geolocalización. Esta nueva obligación supone una transformación significativa para las empresas que gestionan vehículos, tanto por su impacto operativo como por las oportunidades de mejora en seguridad y eficiencia.
A estas alturas no descubrimos nada si decimos que la ciberseguridad es una de las prioridades para empresas, organizaciones y ciudadanos particulares en un 2025 en el que no hay día que no salte alguna noticia relacionada con un incidente de seguridad. Desde nuestra responsabilidad con nuestros clientes, a todos les insistimos en que solo hay dos tipos de empresas, las que han sufrido un ataque y las que no se han enterado. Sin duda, esa es una de las grandes preocupaciones de Roberto Lara, Director de Ciberseguridad en Vodafone España, para quien ese “78,4% de las brechas de seguridad en nuestro país, originadas a través de vulnerabilidades en dispositivos móviles nos recuerda que proteger el entorno móvil no es opcional sino una prioridad”.
Llevo un tiempo con ganas de escribir sobre marketing B2B y como juega en el ciclo de vida de los clientes empresariales y en la escalabilidad de las ventas y el negocio. En el negocio Telco “sin escala no hay negocio y sin marketing no hay escala”.
El B2B es un gran desconocido, con poca gente dispuesta a entenderlo, donde la gente joven no parece querer adentrarse y repleto de profesionales donde su gran valor es la experiencia, mayormente en puestos de ventas. Pero el mundo cambia, los productos de empresas son más digitales que nunca, la gestión del valor de la cartera es imprescindible, la eficiencia de los canales no presenciales es crítica y las herramientas de marketing digital son cruciales para que el B2B siga creciendo exponencialmente, no solo en la pequeña empresa, sino también en la gestión coordinada y automatizada de grandes cuentas.
Desde el lanzamiento de las aplicaciones basadas en los Modelos de Lenguaje LLM que acercan la inteligencia artificial a todo tipo de usuarios, todas las empresas parecen querer aplicar este tipo de soluciones a sus modelos de negocio, aunque muchas se sienten perdidas y no saben exactamente por dónde empezar. Una de esas aplicaciones a su alcance es Google Gemini, que puede integrarse en todas las herramientas que ya utilizas en tu Workspace. En este artículo vamos a guiarte en los primeros pasos y darte ideas de cómo aprovechar al máximo sus posibilidades.
La inteligencia artificial es capaz de tomar decisiones en función de una serie de datos almacenados en su memoria, que analiza y transforma en acciones concretas como respuesta a comandos o preguntas también concretas. Cuando ese algoritmo es capaz de utilizar sus propias respuestas para tomar decisiones mejores en la siguiente orden que recibe, es cuando hablamos de Aprendizaje Automático y depende, básicamente, de cómo almacene ese aprendizaje en un tipo de memoria específica. Hasta ahora, ese proceso siempre ha sido puramente matemático y sujeto a una lógica binaria. Algo que podríamos llamar simple, comparado con el proceso complejo que realiza nuestro cerebro humano, gracias a esa maravilla de la naturaleza que son las sinapsis neuronales. Ahora, inspirándose en el cerebro humano, los investigadores han desarrollado un nuevo transistor sináptico capaz de pensar a un nivel superior.
La era de la Inteligencia Artificial aplicada a todas las empresas ha llegado para quedarse. Si aún no sabes cómo puedes aprovechar todas sus ventajas en tu forma de trabajar cada día, vamos a ayudarte a sacarle el máximo partido a una de las herramientas más populares y completas, como es Copilot de Microsoft 365. Verás que como su nombre indica, puede convertirse en un auténtico copiloto para que tú dirijas tu negocio con un asistente que te ayudará a ser más productivo y eficiente en todo tipo de tareas. Pero vamos a empezar por el principio conociendo un poco más de qué se trata.
Más allá de las aplicaciones más populares que están convirtiendo la inteligencia artificial (IA) en una herramienta que nos rodea a diario en forma de chats y otros modelos de lenguaje similares, existen infinidad de aplicaciones en todos los sectores y actividades económicas que están transformando la forma en que entendemos los procesos.
Uno de los sectores que más está aprovechando las capacidades de aplicar algoritmos a sus tareas y objetivos es el financiero. Se trata de un sector en el que el tratamiento de datos numéricos y estadísticos es esencial y, por ello, está especialmente predispuesto para aprovechar las ventajas de este tipo de tecnología.
Por otra parte, la posibilidad de acercar su labor y servicio a los clientes de una forma más personalizada es especialmente útil si tenemos en cuenta la percepción que éstos tienen de forma habitual con respecto a sus entidades. Y es una realidad que la llamada banca inteligente ya está revolucionando la forma en que las instituciones bancarias operan, interactúan con sus clientes y diseñan sus productos y servicios. Vamos a analizar cómo la IA está cambiando radicalmente el panorama financiero, impulsando una nueva era de eficiencia, personalización y seguridad.
La transformación digital de las administraciones públicas es una realidad imparable. Cada vez más organismos buscan modernizar sus servicios, optimizar recursos y responder con agilidad a las demandas de la ciudadanía. Por eso, la adopción de servicios en la nube puede ser la piedra angular de la innovación y la eficiencia en el sector público.
El rápido avance de la inteligencia artificial ha llevado a muchas organizaciones a decidir cómo integrarla de manera eficaz en sus procesos para no quedar rezagados. En este contexto, dos expertos de Microsoft como Magda Teruel (Partner Solution Architect, Copilot Champion) y Alejandro Cabrera (Technical Specialist Copilot) ofrecieron el webinar “Copilot y Agentes de Copilot en las organizaciones”, centrado en el rol de esta herramienta dentro de la estrategia de adopción de IA. A lo largo de la sesión, presentada por Luz Ruiz (Jefa de Producto de Microsoft 365 en Vodafone Business) ambos expertos ofrecieron una visión clara de los fundamentos tecnológicos que sustentan Copilot, las herramientas que lo componen, sus capacidades, y los desafíos y oportunidades que plantea su implementación en entornos corporativos.