Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Existen pocos sectores que gestionen negocios B2C y que no dependan, en mayor o menor medida, de su presencia en internet, donde el grueso de las transacciones se lleva a cabo a través de sus páginas web o aplicaciones. En algunos, como el e-commerce o los hoteles, esta presencia digital es vital. Los usuarios ya se han acostumbrado a utilizar este canal, en cualquier momento y lugar, sin esperas. Las redes, como la fibra o 5G, son cada vez más rápidas y potentes, pero existen otros factores que pueden ralentizar y arruinar la experiencia de usuario o, en el peor de los casos, sufrir una caída que colapse tus sistemas. Afortunadamente, existen soluciones para evitar ese riesgo.s pacientes antes de que lleguen al hospital.
Cambiar de un servidor propio a servicios cloud es una decisión tecnológica, pero sobre todo es una decisión estratégica. Supone reducir riesgos, escalar fácilmente, ahorrar costes, mejorar la productividad y acceder a tecnologías punteras. Cualquiera con un mínimo de estructura empresarial tiene ya un servidor, con toda probabilidad de acceso remoto y, si son precavidos, a través de VPN. El siguiente paso es adoptar la nube y las empresas que lo entiendan y actúen hoy estarán mejor posicionadas para liderar el mercado mañana.
A partir del 1 de enero de 2026 todos los conductores deberán llevar en sus coches la nueva baliza de señalización de emergencias que sustituye a los actuales triángulos. Si a nivel particular la mayoría lo dejará para el último momento, para las empresas no es algo que pueda improvisarse y exige una toma de decisiones acorde con la responsabilidad tanto del pequeño transportista como de las grandes empresas que gestionan flotas. Más allá de entenderlo como una nueva exigencia, la transición hacia las balizas V16 conectadas debe representar para los profesionales un paso hacia un trabajo en movilidad más segura y eficiente. Para las flotas empresariales, no se trata solo de cumplir con una normativa, sino de liderar con responsabilidad e innovación. Porque, detrás de lo que parece un simple accesorio, hay mucho más que debe tenerse en cuenta.
La protección de la información debe ser una prioridad absoluta para las administraciones públicas. A medida que aumentan los procesos y servicios digitalizados que se proporcionan a los ciudadanos, también lo hace la exposición a sufrir ciberataques.
La protección de la información no solo implica defenderse de ataques externos, sino también establecer protocolos internos robustos que minimicen riesgos y garanticen la integridad, confidencialidad y disponibilidad de los datos. En este contexto, el Esquema Nacional de Seguridad (ENS) es una pieza fundamental, de obligado cumplimiento, para que las administraciones tengan una eficiente protección de datos.
Una Norma ISO es un estándar internacional desarrollado y publicado por la Organización Internacional de Normalización (ISO, por sus siglas en inglés). Estas normas establecen requisitos, especificaciones, directrices o características que se deben seguir para asegurar que productos, servicios y procesos sean seguros, de calidad y eficientes. Aunque las normas ISO son voluntarias en la mayoría de los casos, puede ser una exigencia expresa en determinados contratos con grandes empresas, en sectores como la banca, sanidad o energía, o con la Administración Pública. Es el caso de algunas normativas nacionales de protección de datos o ciberseguridad, que exigen ciertos estándares técnicos, como por ejemplo la ISO 27001 que garantiza la confidencialidad, integridad y seguridad de la información de la empresa. Lo que está claro es que, contar con este tipo de certificación, es una garantía de seguridad para tu negocio u organización y hablará muy bien de ti cuando optes a nuevos clientes o colaboraciones. Si estás pensando en certificarte ISO, una de las maneras más fáciles de conseguirlo es contratando una consultoría especializada.
Los robots ya están a nuestro lado cada día, tanto en casa como en el trabajo. Entendemos por robot una herramienta, ya sea corpórea, o en forma de una voz o un texto que nos responde, con el que interactuamos para realizar tareas conjuntas. Puede ser un chatbot que nos responde al teléfono, un asistente de voz o una compleja maquinaria industrial que acepta comandos de voz. Que cumplan con su cometido de forma rápida, eficaz o segura depende de que nos entiendan. Pero el lenguaje humano es complejo y no siempre cumple estrictamente con las normas de sintaxis, gramática o pronunciación. ¿Podrán los robots captar los matices de una conversación con humanos y "leer entre líneas" lo que realmente se está queriendo decir?
Uno de los pilares de la digitalización de los negocios y los servicios públicos es la denominada nube, o cloud computing que permite acceder a los datos desde cualquier lugar. Algo tan habitual hoy en día como enviar esos datos a la red y recuperarlos después, como hace el correo electrónico, ha evolucionado hasta niveles de funcionalidad tales que permiten la existencia de todo un ecosistema de dispositivos y sensores conectados a Internet de las Cosas, o que esos dispositivos no requieran de un procesador porque toda la computación se realiza en la nube.
Esta transformación radica en la forma en que las empresas almacenan, procesan y analizan datos implica así un aumento exponencial de dispositivos conectados, aplicaciones en tiempo real y demandas de baja latencia, lo que nos permite entender la propia red casi como un dispositivo sin una clara frontera entre los procesos. Eso sería, en pocas palabras, lo que se denomina Edge Computing y que será cada vez más habitual gracias a las características de la red 5G.
La ciberseguridad ya no es una opción y, como todos los expertos alertan, existen dos tipos de empresas: las que han sufrido un ataque y las que lo van a sufrir, o no se han enterado de que lo han tenido. No importa nuestro tamaño o actividad, ya que en muchas ocasiones los ataques se producen como puente a presas mayores. Por eso, contar con una estrategia de detección y respuesta en tiempo real, apoyada por un servicio MDR y tecnologías avanzadas, es esencial para proteger tu empresa hoy mismo. No se trata solo de prevenir, sino de estar preparados para adaptarse y resistir. Porque en ciberseguridad, la mejor defensa es una buena anticipación.
De hecho, la ciberseguridad no puede ser una reacción, sino que debe ser una estrategia proactiva que esté integrada en todo el modelo de negocio, si queremos conservarlo. Además, las amenazas evolucionan constantemente, y los ciberdelincuentes emplean cada vez técnicas más sofisticadas que requieren una vigilancia y actualización de nuestras defensas también continua.
Las empresas se enfrentan de forma creciente a una avalancha de riesgos y de ciberataques que merman su productividad y competitividad. Ante este panorama, y con el objetivo de fortalecer la resiliencia digital, la Unión Europea desarrolló la Directiva NIS2 que entró en vigor el 16 de enero de 2023.
Esta norma sustituye a la Directiva NIS original de 2016 y supone una ampliación del marco regulatorio existente. Su objetivo es ampliar el número de empresas que tienen que cumplir la normativa y establecer requisitos más estrictos y claros para la gestión de los riesgos de ciberseguridad.
España se encuentra ante un punto de inflexión en la gestión del agua. A la presión creciente del cambio climático, las sequías recurrentes y el envejecimiento de las infraestructuras, se suma ahora una oportunidad histórica: el Proyecto Estratégico para la Recuperación y Transformación Económica (PERTE) del Ciclo del Agua. Con más de 3.000 millones de euros movilizados, el PERTE ofrece el impulso necesario para digitalizar de forma integral el sector hídrico. Y en el centro de esta transformación se encuentra una tecnología que ya está revolucionando otros sectores: el Internet de las Cosas (IoT).
Los datos hablan por sí solos: un cuarto de las tuberías en España tiene más de 40 años y apenas un 17% ha sido renovado en la última década. Este envejecimiento conlleva fugas, roturas y averías que suponen pérdidas diarias de hasta 38 litros por habitante. En total, más de 695.000 millones de litros de agua se pierden al año, según el INE. Y cada gota cuenta. En paralelo, muchas redes urbanas siguen gestionándose con sistemas analógicos, lo que dificulta una respuesta ágil y basada en datos.
No se trata solo de evitar el despilfarro. La gestión deficiente del agua conlleva costes operativos elevados, sobrecarga energética y una menor resiliencia ante sequías, olas de calor o episodios extremos. Ante este panorama, la digitalización del ciclo del agua ya no es solo una opción: es una necesidad estratégica.
La tecnología háptica, o la capacidad de sentir y tocar en el mundo digital, ha dado un gran paso adelante gracias a un innovador desarrollo en el campo de la realidad virtual (VR) y aumentada (AR). Un equipo de investigación liderado por el profesor Park Jang-Ung del Instituto de Ciencias Básicas (IBS) ha desarrollado una tecnología que promete sensaciones táctiles uniformes y precisas en pantallas transparentes, algo que podría revolucionar la interacción entre los usuarios y los dispositivos inteligentes.
El IoT se ha convertido en una herramienta concreta y rentable que automatiza y realiza procesos a distancia, más allá del mero dispositivo conectado, y transforma datos en conocimiento, ayudando así a la toma de decisiones estratégicas. Las empresas que apuesten por soluciones de análisis IoT no solo mejorarán su eficiencia y rentabilidad, sino que estarán mejor preparadas para anticiparse al futuro y adaptarse a un mercado cada vez más competitivo y digital.
Los datos son, hoy más que nunca, el activo más valioso de cualquier organización. Pero su verdadero poder radica en la capacidad de convertirlos en conocimiento útil para tomar decisiones ágiles, reducir costes y anticiparse al cambio. El Internet de las Cosas y sus soluciones de análisis de datos son la clave para lograrlo. Si aún no has comenzado a utilizar IoT o quieres saber cuál será el siguiente paso, sigue leyendo.
La eficiencia empresarial hoy no se mide solo por la reducción de costes, sino por la capacidad de adaptarse, innovar y escalar rápidamente. Integrar soluciones SaaS en entornos de nube flexible permite a las organizaciones combinar lo mejor del software moderno con infraestructuras tecnológicas altamente adaptables. Para las empresas que desean mantenerse competitivas y preparadas para el futuro, esta combinación no es una opción: es una necesidad estratégica.
De esta forma, los modelos SaaS (Software as a Service) dentro de entornos de nube flexibles, se han consolidado como una estrategia clave para mejorar la eficiencia operativa. Este artículo explora distintos modelos como la Cloud Privada, la Cloud Pública y los servicios profesionales que se acompañan para aplicarlos en el día a día de forma personalizada.