Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
El control horario es obligatorio en España desde la aprobación del Real Decreto-ley 8/2019 y entró plenamente en vigor en 2025 con una actualización. De esta forma, todas las empresas deben llevar un registro diario de la jornada laboral en el que se especifique el horario de inicio y fin de cada trabajador, sin importar su modalidad de trabajo, ya sea presencial, remoto, parcial, etc.
Aunque el registro de entrada y salida de los trabajadores a sus puestos no es nada nuevo, sí lo es la nueva realidad de muchos de esos trabajadores que ya no entran y salen de una oficina física, sino virtual, trabajando desde su casa o cualquier otro lugar en remoto, sin horarios estrictos. Entre esos cambios culturales en la empresa, ya no se trata tanto de puntualidad como de evitar abusos laborales o fraudes en las horas extras. Así, los viejos métodos, como relojes que marcan tarjetas o las hojas de firma, ya no son válidas y requieren su actualización a los nuevos tiempos.
Estamos acostumbrados a navegar por internet sin interrupciones y a gran velocidad y, cuando no es así, abandonamos el sitio sin esperar si tarda más de 3 segundos. Si tu web es lenta, no solo afectará a la experiencia de usuario y se irá sin que cumpla su objetivo, afectando a las conversiones, también repercutirá en el posicionamiento SEO y en la reputación de la marca. Por eso optimizar el rendimiento web es ya una cuestión estratégica para la que hay soluciones específicas.
En un mundo donde incluso unos minutos de caída pueden traducirse en pérdidas millonarias, garantizar la disponibilidad de los servicios online ya no es una opción, sino una necesidad crítica. Existen muchas razones por las que pueden verse interrumpidos los servicios online de una organización. Teniendo en cuenta que prácticamente ningún sector o tipo de actividad está hoy sin digitalizar y que las comunicaciones y los datos son esenciales para la supervivencia, las interrupciones pueden generar grandes pérdidas económicas y afectar la reputación de una compañía o institución.
En este contexto, la computación en la nube (cloud computing) juega un papel fundamental para garantizar la disponibilidad y resiliencia de los servicios online. Esta nube está igualmente presente en el día a día de la inmensa mayoría de usuarios que, por ejemplo, utilizan correo electrónico no corporativo, o sube sus fotos a una red social y quedan allí almacenadas sin ocupar espacio de memoria. A nivel corporativo, con las consecuentes medidas de seguridad y capacidad de personalización de estos servicios conectados a la nube, son la mejor garantía de que su actividad va a estar siempre disponible. Dada la complejidad de las necesidades de cada organización, también existen diferentes opciones de utilizar el cloud según los casos. La principal diferenciación la encontramos entre el uso de nubes públicas o nubes privadas.
Una nueva amenaza seria a nuestros sistemas de seguridad actuales. ¿Cómo podemos proteger nuestros datos en un mundo donde las leyes de la física cuántica podrían romper nuestros sistemas de cifrado más robustos? La respuesta podría estar en los avances en la criptografía también cuántica.
La ciberseguridad ha trascendido el ámbito puramente técnico para consolidarse como un pilar estratégico en cualquier organización moderna. Las amenazas digitales han experimentado un crecimiento exponencial tanto en sofisticación como en volumen, dejando obsoletas las aproximaciones tradicionales a la seguridad.
A medida que una organización amplía su infraestructura digital, también crece su exposición a las ciberamenazas. El Pentesting, o prueba de penetración, permite detectar de manera proactiva vulnerabilidades antes de que sean explotadas por actores malintencionados. Se trata de una auditoría técnica con un enfoque ofensivo.
El pasado 2 de abril se celebró el 4º Congreso de Ciberseguridad de Andalucía en Málaga, organizado por la Agencia Digital de Andalucía a través del Centro de Ciberseguridad de Andalucía (CIAN). Allí cada experto aportó su visión de cómo están las cosas en este terreno y en especial en el sector sanitario. Pasados unos días, nos gustaría profundizar un poco más en la visión sobre la importancia de la ciberseguridad como escudo inmunológico del sector salud, que es como se titulaba la ponencia presentada en dicho foro por Iván Portillo, Responsable de Inteligencia y Defensa en Cybersecurity Business Unit de Vodafone Business.
El símil farmacológico tenía todo el sentido, más allá de jugar con las palabras, ya que al igual que hacemos con una enfermedad o patología clínica que nos perjudica la salud física, en términos digitales los ataques que sufrimos no solo son prevenibles como hacemos con las vacunas, reforzando nuestras defensas para hacernos inmunes, sino que también requiere de un tratamiento posterior que nos recupere y elimine el contagio al resto de nuestro organismo o se propague a otros.
Hace poco escribí un artículo relacionado con la forma en la que desde Vodafone reinventamos las Comunicaciones Unificadas y hoy le toca el turno a una historia de pioneros del puesto de trabajo en movilidad.
Con cada tecnología de Telecomunicaciones que aparece cada 5 años, se produce una conversación recurrente en los operadores: ¿Cuál será la “Killer Application” de esta nueva tecnología? Cada uno podemos tener nuestra propia opinión, y ahí va la mía.
Las oficinas y lugares de trabajo son cada vez más digitales: el papel y los cables han dado paso a una operativa más ágil y basada en la movilidad. Las comunicaciones, tanto internas como externas, se realizan mayoritariamente a través de dispositivos móviles que comparten red con sensores, equipos y objetos conectados gracias a Internet de las Cosas (IoT). Aunque la red 5G sigue ampliando su cobertura, aún existen zonas donde la señal móvil no alcanza el rendimiento deseado por limitaciones técnicas o de infraestructura. En estos casos, una alternativa eficaz es utilizar el WiFi también como red de comunicaciones para voz, complementándose con tecnologías como NarrowBand-IoT, ideales para conectar dispositivos en ubicaciones remotas. Te contamos cómo.
Presumir de ser líderes en IoT está bien, pero que te lo reconozca una consultoría independiente es aún mejor. Y eso es lo que estamos orgullosos de anunciar, por undécimo año consecutivo, encabezando el ranking del prestigioso informe anual Gartner Magic Quadrant.
Un nuevo método basado en la bioquímica ayudará a proteger las contraseñas de las computadoras cuánticas. La tecnología, basada en una prueba molecular, permitirá también demostrar la autenticidad de las obras de arte. ¿Estamos ante la prueba de seguridad informática definitiva?
Con el desarrollo de la computación cuántica, los expertos en seguridad temen la amenaza del Q-Day, el día en que las computadoras cuánticas alcanzarán un poder tal que podrán descifrar las contraseñas actuales. Estos expertos en ciberseguridad creen que, al llegar ese momento, aunque algunos estiman que pasarán menos de diez años hasta que se materialice esta preocupación, las comprobaciones de contraseñas, fundamentadas en funciones criptográficas unidireccionales, podrían quedar obsoletas ante el avance de la computación cuántica, capaz de invertir fácilmente estos cálculos. Por otro lado, la alternativa consistente en utilización de datos biométricos no siempre es posible y también genera recelos en cuanto a privacidad.
Es la eterna promesa o asignatura pendiente de la tecnología. Más allá de los videojuegos, y el todavía incipiente Metaverso, la Realidad Virtual aún no está suficientemente implantada en forma de aplicaciones y herramientas que podamos considerar mainstream. Y eso, a pesar de que el nivel de calidad alcanzado con la generación de imágenes asistidas por Inteligencia Artificial ha logrado un realismo que roza la perfección, y la red 5G permite que sea posible usarla sin los fallos de latencia que perjudicaban la experiencia del usuario. Una latencia que no solo permite la interacción en tiempo “realmente real” para responder a cualquier orden o comando que requiera la app, sino eliminar el famoso vértigo o mareo producido por la diferencia de velocidad entre la imagen y la percepción a través del ojo y el cerebro.
He tenido la suerte de colaborar en varias ocasiones con organismos relacionados con el sector público en áreas de Inteligencia y creo que estaría bien que los departamentos de Ciberseguridad se llamaran también así, de Inteligencia, como en las películas de espías. De esta forma, puede que muchos que hoy creen que proteger sus activos digitales consiste solo en disponer de cortafuegos o antivirus se dieran cuenta de que lo que está en juego es algo mucho mayor y que con frecuencia el ataque que recibe su empresa es solo una batalla dentro de una guerra mayor, prácticamente global. A veces, nuestra empresa es solo una estación de paso hasta otros objetivos mayores, otras, somos el premio deseado por unos delincuentes profesionales que saben hacer muy bien su trabajo. Por eso es esencial que nosotros también lo seamos y pongamos la ciberseguridad en el centro de nuestro negocio.