Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año.
TOP500 se convierte en un club petaflop para las supercomputadoras más rápidas
La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops.
La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.
El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010.
En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.
Frontera, la única supercomputadora nueva en el top 10, alcanzó su posición número cinco al entregar 23.5 petaflops en HPL. El sistema Dell C6420, impulsado por los procesadores Intel Xeon Platinum 8280, se instala en el Centro de computación avanzada de Texas de la Universidad de Texas.
En el número seis está Piz Daint, un sistema Cray XC50 instalado en el Swiss National Supercomputing Center (CSCS) en Lugano, Suiza. Está equipado con CPU Intel Xeon y GPU NVIDIA P100. Piz Daint sigue siendo el sistema más poderoso de Europa.
Trinity, un sistema Cray XC40 operado por el Laboratorio Nacional de Los Álamos y Sandia National Laboratories, mejora su rendimiento a 20.2 petaflops, lo que le otorga la posición número siete. Está alimentado por procesadores Intel Xeon y Xeon Phi.
La Infraestructura en la nube de Bridging AI (ABCI) se instala en Japón en el Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST) y se encuentra en el número ocho, con 19.9 petaflops. El sistema construido por Fujitsu está equipado con procesadores Intel Xeon Gold y GPU NVIDIA Tesla V100.
SuperMUC-NG está en la posición número nueve con 19.5 petaflops. Se instala en el Leibniz-Rechenzentrum (Centro de Supercomputación de Leibniz) en Garching, cerca de Munich. La máquina construida por Lenovo está equipada con procesadores Intel Platinum Xeon, así como con la interconexión Omni-Path de la compañía.
El superordenador Lassenactualizado captura el puesto número 10, con una actualización que aumentó su resultado original de 15.4 petaflops en HPL a 18.2 petaflops. Instalado en el Laboratorio Nacional Lawrence Livermore, Lassen es la contrapartida no clasificada del sistema Sierra clasificado y comparte la misma arquitectura de GPU IBM Power9 / NVIDIA V100.
China lidera por números absolutos, Estados Unidos por desempeño de supercomputadoras
China reclama la mayoría de los sistemas TOP500, con 219, seguido por Estados Unidos, con 116. Japón ocupa el tercer lugar con 29 sistemas, seguido por Francia, con 19, el Reino Unido con 18 y Alemania con 14.
A pesar de que EE. UU. Se encuentra en un segundo lugar distante en cuanto a la cantidad total de sistemas, afirma que hay una gran cantidad de sistemas en la parte superior de la lista. Eso le permite mantener su liderazgo en la capacidad general de HPL, con el 38.4 por ciento del rendimiento de la lista agregada. (Summit y Sierra, por sí solos, representan el 15.6 por ciento de los fracasos de HPL de la lista). China, con sus sistemas comparativamente más pequeños, ocupa el segundo lugar, con un 29.9 por ciento del rendimiento total.
Las marcas chinas lideran el camino
El predominio de China en los números del sistema también se refleja en las acciones de los proveedores. Lenovo reclama el mayor número de sistemas en la lista, con 173, seguido de Inspur con 71, y Sugon, con 63. Los tres mejoraron en su parte del sistema desde hace seis meses. HPE, con 40 sistemas, y Cray, con 39 sistemas, ocupan el cuarto y quinto lugar, respectivamente.
Bull, como el único proveedor de sistemas con base en Europa en la lista, reclama 21 sistemas, seguido por Fujitsu, con 13, e IBM, con 12.
Sin embargo, dado que IBM es el proveedor de Summit, Sierra y una serie de otros sistemas grandes , el rendimiento total de TOP500 de la compañía es de 207 petaflops, un número que solo supera Lenovo, con 14 veces más sistemas.
Intel y NVIDIA marcan el ritmo en el silicio
Desde la perspectiva del procesador, Intel continúa dominando la lista TOP500, con los chips de la compañía apareciendo en el 95.6 por ciento de todos los sistemas. Las CPU de IBM Power están en siete sistemas, seguidos de los procesadores AMD, que están presentes en tres sistemas. Una sola supercomputadora en la lista, Astra, está alimentada por procesadores Arm.
Un total de 133 sistemas en la lista TOP500 emplean tecnología de acelerador o coprocesador, un poco menos que 138 hace seis meses. De estos, 125 sistemas utilizan GPU NVIDIA. Alrededor de la mitad de los (62) utilizan los últimos procesadores de generación Volta, y el resto (60) se basa en la tecnología de Pascal y Kepler.
Desde una perspectiva de interconexión, Ethernet continúa dominando la lista general, afirmando que el 54.2 por ciento de los sistemas TOP500. InfiniBand es la segunda interconexión más popular, que aparece en el 25 por ciento de los sistemas, seguida de interconexiones personalizadas y propietarias con un 10.8 por ciento, y Omni-Path con un 9.8 por ciento.
Sin embargo, al observar los 50 supercomputadores más rápidos de la lista, esos números cambian drásticamente, con interconexiones personalizadas en el 40 por ciento de los sistemas principales, seguidos de InfiniBand con el 38 por ciento, Omni-Path con el 10 por ciento y Ethernet con el 2 por ciento. (Un solo sistema).
Green500, eficiencia energética de las supercomputadoras
En cuanto a la lista Green500 relacionada, la eficiencia energética no se ha movido mucho desde la publicación de la lista anterior en noviembre de 2018. El sistema B de Shoubu mantiene su posición número uno con una eficiencia de 17,6 gigaflops / vatio. El sistema DGX SaturnV Volta de Nvidia se mantiene en el segundo lugar con 15.1 gigaflops / vatio, seguido de Summit con 14.7 gigaflops / vatio y la AI Bridging Cloud Infrastructure (ABCI) con 14.4 gigaflops / vatio. El cluster MareNostrum P9 CTE mejoró su resultado de hace seis meses para capturar la quinta posición con 14.1 gigaflops / vatio. En general, la eficiencia energética promedio de los sistemas en la lista Green500 ha mejorado de 3.0 gigaflops / vatio, hace seis meses, a 3.2 gigaflops en la actualidad.
Resultados de HPCG
Los resultados de referencia para el gradiente de conjugado de alto rendimiento (HPCG) se mantuvieron prácticamente sin cambios desde noviembre pasado, con las cinco entradas principales de Summit, Sierra, K computer, Trinity y AI Bridging Cloud Infrastructure manteniendo su clasificación anterior desde noviembre de 2018. Summit y Sierra siguen siendo los únicos dos sistemas que superan un petaflop en el punto de referencia de HPCG, entregando 2.9 petaflops y 1.8 petaflops, respectivamente. El resultado promedio de HPCG en la lista actual es de 213.3 teraflops, un aumento marginal de 211.2 hace seis meses.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Más allá de las aplicaciones más populares que están convirtiendo la inteligencia artificial (IA) en una herramienta que nos rodea a diario en forma de chats y otros modelos de lenguaje similares, existen infinidad de aplicaciones en todos los sectores y actividades económicas que están transformando la forma en que entendemos los procesos.
Uno de los sectores que más está aprovechando las capacidades de aplicar algoritmos a sus tareas y objetivos es el financiero. Se trata de un sector en el que el tratamiento de datos numéricos y estadísticos es esencial y, por ello, está especialmente predispuesto para aprovechar las ventajas de este tipo de tecnología.
Por otra parte, la posibilidad de acercar su labor y servicio a los clientes de una forma más personalizada es especialmente útil si tenemos en cuenta la percepción que éstos tienen de forma habitual con respecto a sus entidades. Y es una realidad que la llamada banca inteligente ya está revolucionando la forma en que las instituciones bancarias operan, interactúan con sus clientes y diseñan sus productos y servicios. Vamos a analizar cómo la IA está cambiando radicalmente el panorama financiero, impulsando una nueva era de eficiencia, personalización y seguridad.
El rápido avance de la inteligencia artificial ha llevado a muchas organizaciones a decidir cómo integrarla de manera eficaz en sus procesos para no quedar rezagados. En este contexto, dos expertos de Microsoft como Magda Teruel (Partner Solution Architect, Copilot Champion) y Alejandro Cabrera (Technical Specialist Copilot) ofrecieron el webinar “Copilot y Agentes de Copilot en las organizaciones”, centrado en el rol de esta herramienta dentro de la estrategia de adopción de IA. A lo largo de la sesión, presentada por Luz Ruiz (Jefa de Producto de Microsoft 365 en Vodafone Business) ambos expertos ofrecieron una visión clara de los fundamentos tecnológicos que sustentan Copilot, las herramientas que lo componen, sus capacidades, y los desafíos y oportunidades que plantea su implementación en entornos corporativos.
La transformación digital de las administraciones públicas es una realidad imparable. Cada vez más organismos buscan modernizar sus servicios, optimizar recursos y responder con agilidad a las demandas de la ciudadanía. Por eso, la adopción de servicios en la nube puede ser la piedra angular de la innovación y la eficiencia en el sector público.
Como experto en ciberseguridad me encuentro demasiadas veces ante empresas u organismos que han sido víctimas de un ataque para el que no estaban preparados. Unas veces no lo suficiente y otras nada en absoluto. Es cierto que la seguridad total no existe, pero no lo es menos que la capacidad de respuesta, o como está de moda decir ahora, resiliencia, depende de cómo de preparados estuviéramos antes de ese incidente. En temas de ciberseguridad, puede ser tan importante lo que hagamos después de un ataque como lo que hagamos antes. De las conclusiones que saquemos a posteriori se pueden evitar futuros ataques tanto nuestros como de los demás.
El futuro del sector retail es prometedor y la tecnología hará que el comercio físico sea cada vez más rentable y mejorará la experiencia de compra de los clientes. Porque, aunque el comercio electrónico sea cada vez más potente y gane cuota de mercado, la mayoría de las personas siguen queriendo disfrutar de la experiencia de comprar en el comercio físico. De hecho, muchos estudios demuestran que, cuanto más crece el comercio electrónico, más crece también el comercio minorista físico.
Son muchas las marcas que comenzaron siendo nativas digitales que hoy han dado el salto al retail físico, haciendo el recorrido inverso a las tiendas tradicionales que abrieron sus comercios electrónicos. Unas y otras combinan la disponibilidad con la conveniencia del cliente, y complementan la compra online con el showroom o las experiencias en vivo, que refuerzan el branding y el sentido de pertenencia. Lo que sí tienes que tener en cuenta es que, aunque te centres en el retail físico, la tecnología puede impulsar tu negocio como nunca antes lo ha hecho, más allá de la presencia en la web o en las redes sociales. Hablamos de tecnologías como el Internet de las Cosas o el Data Driven, que facilitarán tu trabajo en muchas de las tareas repetitivas, o que requieren análisis de información, gracias también a tecnologías facilitadoras como el 5G o la Inteligencia Artificial. Estas herramientas no solo están optimizando procesos, sino que también están redefiniendo la experiencia del cliente y el modelo de negocio del comercio minorista. Vamos a ver cómo lo están haciendo.
Hay algunas cosas que tengo muy claras después de muchos años de labor comercial en el mundo de la empresa: quien tiene un buen socio, tiene un tesoro. Y puedes ser un socio de muchas maneras. Una de ellas, es como proveedor estratégico. En realidad, todos los colaboradores de cualquier tipo deberían ser estratégicos, pero lo cierto es que no todos lo son, en el sentido de ser irremplazables, y… ¿Quién no quiere ser único para sus clientes?
El control horario es obligatorio en España desde la aprobación del Real Decreto-ley 8/2019 y entró plenamente en vigor en 2025 con una actualización. De esta forma, todas las empresas deben llevar un registro diario de la jornada laboral en el que se especifique el horario de inicio y fin de cada trabajador, sin importar su modalidad de trabajo, ya sea presencial, remoto, parcial, etc.
Aunque el registro de entrada y salida de los trabajadores a sus puestos no es nada nuevo, sí lo es la nueva realidad de muchos de esos trabajadores que ya no entran y salen de una oficina física, sino virtual, trabajando desde su casa o cualquier otro lugar en remoto, sin horarios estrictos. Entre esos cambios culturales en la empresa, ya no se trata tanto de puntualidad como de evitar abusos laborales o fraudes en las horas extras. Así, los viejos métodos, como relojes que marcan tarjetas o las hojas de firma, ya no son válidas y requieren su actualización a los nuevos tiempos.
Estamos acostumbrados a navegar por internet sin interrupciones y a gran velocidad y, cuando no es así, abandonamos el sitio sin esperar si tarda más de 3 segundos. Si tu web es lenta, no solo afectará a la experiencia de usuario y se irá sin que cumpla su objetivo, afectando a las conversiones, también repercutirá en el posicionamiento SEO y en la reputación de la marca. Por eso optimizar el rendimiento web es ya una cuestión estratégica para la que hay soluciones específicas.
En un mundo donde incluso unos minutos de caída pueden traducirse en pérdidas millonarias, garantizar la disponibilidad de los servicios online ya no es una opción, sino una necesidad crítica. Existen muchas razones por las que pueden verse interrumpidos los servicios online de una organización. Teniendo en cuenta que prácticamente ningún sector o tipo de actividad está hoy sin digitalizar y que las comunicaciones y los datos son esenciales para la supervivencia, las interrupciones pueden generar grandes pérdidas económicas y afectar la reputación de una compañía o institución.
En este contexto, la computación en la nube (cloud computing) juega un papel fundamental para garantizar la disponibilidad y resiliencia de los servicios online. Esta nube está igualmente presente en el día a día de la inmensa mayoría de usuarios que, por ejemplo, utilizan correo electrónico no corporativo, o sube sus fotos a una red social y quedan allí almacenadas sin ocupar espacio de memoria. A nivel corporativo, con las consecuentes medidas de seguridad y capacidad de personalización de estos servicios conectados a la nube, son la mejor garantía de que su actividad va a estar siempre disponible. Dada la complejidad de las necesidades de cada organización, también existen diferentes opciones de utilizar el cloud según los casos. La principal diferenciación la encontramos entre el uso de nubes públicas o nubes privadas.
Una nueva amenaza seria a nuestros sistemas de seguridad actuales. ¿Cómo podemos proteger nuestros datos en un mundo donde las leyes de la física cuántica podrían romper nuestros sistemas de cifrado más robustos? La respuesta podría estar en los avances en la criptografía también cuántica.
La ciberseguridad ha trascendido el ámbito puramente técnico para consolidarse como un pilar estratégico en cualquier organización moderna. Las amenazas digitales han experimentado un crecimiento exponencial tanto en sofisticación como en volumen, dejando obsoletas las aproximaciones tradicionales a la seguridad.
A medida que una organización amplía su infraestructura digital, también crece su exposición a las ciberamenazas. El Pentesting, o prueba de penetración, permite detectar de manera proactiva vulnerabilidades antes de que sean explotadas por actores malintencionados. Se trata de una auditoría técnica con un enfoque ofensivo.
El pasado 2 de abril se celebró el 4º Congreso de Ciberseguridad de Andalucía en Málaga, organizado por la Agencia Digital de Andalucía a través del Centro de Ciberseguridad de Andalucía (CIAN). Allí cada experto aportó su visión de cómo están las cosas en este terreno y en especial en el sector sanitario. Pasados unos días, nos gustaría profundizar un poco más en la visión sobre la importancia de la ciberseguridad como escudo inmunológico del sector salud, que es como se titulaba la ponencia presentada en dicho foro por Iván Portillo, Responsable de Inteligencia y Defensa en Cybersecurity Business Unit de Vodafone Business.
El símil farmacológico tenía todo el sentido, más allá de jugar con las palabras, ya que al igual que hacemos con una enfermedad o patología clínica que nos perjudica la salud física, en términos digitales los ataques que sufrimos no solo son prevenibles como hacemos con las vacunas, reforzando nuestras defensas para hacernos inmunes, sino que también requiere de un tratamiento posterior que nos recupere y elimine el contagio al resto de nuestro organismo o se propague a otros.