La Inteligencia Artificial está demandando nuevo hardware más potente y específicamente diseñado para las cargas de trabajo y cálculos diferentes a las actuales, como son predicción, inferencia o intuición.
Para IBM, si vamos a hacer grandes avances en IA, nuestro hardware también debe cambiar. Comenzando con GPU, luego evolucionando a dispositivos analógicos, y después a computadoras cuánticas tolerantes a fallas.
El Deep Learningdistribuido (DDL) ha progresado a un ritmo de aproximadamente 2.5 veces por año desde 2009, cuando las GPU pasaron de aceleradores gráficos de videojuegos a formadores modelo de aprendizaje profundo. Los algoritmos DDL se «entrenan» en los datos visuales y de audio, y la mayor cantidad de GPU debería significar un aprendizaje más rápido.
Hasta la fecha, la eficiencia de escala del 95 por ciento del establecimiento récord de IBM (es decir, una capacitación mejorada a medida que se agregan más GPU) puede reconocer el 33.8 por ciento de 7,5 millones de imágenes, usando 256 GPU en 64 sistemas de energía «Minsky».
¿Qué hardware necesitamos desarrollar para continuar este ritmo de progreso e ir más allá de la Inteligencia Artificial?
En IBM Research creen que esta transición de las GPU ocurrirá en tres etapas. Primero, utilizarán GPU y crearán nuevos aceleradores con CMOS convencional a corto plazo para continuar; segundo, buscarán formas de explotar dispositivos analógicos y de baja precisión para reducir aún más la potencia y mejorar el rendimiento; y luego cuando ingresemos en la era de la computación cuántica, ésta potencialmente ofrecerá enfoques completamente nuevos.
Los aceleradores en CMOS aún tienen mucho que lograr porque los modelos de aprendizaje automático pueden tolerar cálculos imprecisos. Es precisamente porque «aprenden» que estos modelos pueden funcionar a través de errores (errores que nunca toleraremos en una transacción bancaria). En 2015, Suyong Gupta, et al. han demostrado en su documento ICML Aprendizaje profundo con precisión numérica limitada que, de hecho, los modelos de precisión reducida tienen una precisión equivalente al estándar actual de 64 bits, pero usan tan solo 14 bits de precisión de coma flotante.
Vemos esta precisión reducida, una tendencia de computación más rápida que contribuye a la mejora de 2.5X por año, al menos hasta el año 2022.
Eso nos da unos cinco años para ir más allá del cuello de botella de von Neumann y para los dispositivos analógicos. Mover datos hacia y desde la memoria ralentiza la capacitación de la red de aprendizaje profundo. Entonces, encontrar dispositivos analógicos que puedan combinar memoria y computación será importante para el progreso de la computación neuromórfica .
Computación neuromórfica que imita las células cerebrales
Su arquitectura de «neuronas» interconectadas reemplaza el cuello de botella de von-Neumann con señales de baja potencia que van directamente entre las neuronas para una computación más eficiente. El Laboratorio de Investigación de la Fuerza Aérea de los EE. UU. está probando una matriz de 64 chips del sistema IBM TrueNorth Neurosynaptic diseñado para la inferencia profunda de redes neuronales y el descubrimiento de información. El sistema usa CMOS digital estándar pero solo consume 10 vatios de energía para alimentar sus 64 millones de neuronas y 16 mil millones de sinapsis.
Recientemente, científicos de IBM demostraron la computación en memoria con 1 millón de dispositivos para aplicaciones en IA, publicando sus resultados, detección de correlación temporal usando memoria de cambio de fase computacional, en Nature Communications, y también presentándola en la sesión IEDM Recuperación de detección comprimida usando memoria computacional.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Los ayuntamientos tienen cada vez más procesos digitalizados, lo que incrementa su exposición a ciberamenazas y amplía la superficie de ataque de sus sistemas. Una de las más peligrosas es el ransomware, ya que combina interrupción operativa, crisis reputacional y riesgo sobre los datos sensibles de ciudadanos y empresas.
Ante esta situación, las entidades locales deben desarrollar una estrategia de ciberseguridad que incluya la detección de vulnerabilidades, la prevención y la incorporación de soluciones activas de defensa.
Hasta la llegada de las comunicaciones móviles, las posibilidades de que espiaran tu teléfono eran muy remotas. Prácticamente se limitaban a las escuchas legales ordenadas por un juez, o casos poco probables de espionaje industrial. Y, aun en esos casos, el máximo riesgo que corrías es que una conversación quedará grabada.
Pero en el mundo de los smartphones, que un dispositivo sea infectado con una app de espionaje significa que terceros pueden acceder a una cantidad y variedad de datos e información infinitamente mayor. Fotos, documentos, conversaciones en chats, accesos a otros servicios, conectar con los servidores de tu organización, uso de la cámara y el micrófono… todo lo que haces desde ese terminal que ya no es solo un teléfono, queda expuesto.
Y esa intrusión, que alcanza como sabemos incluso a los gobiernos, afecta a altos directivos, funcionarios públicos o profesionales que manejan información relevante, comprometida y, por tanto, valiosa.
Tras la celebración del 5º Congreso de Ciberseguridad de Andalucía en Málaga, donde se abordaron los principales retos en la protección de infraestructuras críticas, la ciberseguridad vuelve a situarse en el centro del debate. Vivimos un momento crítico en el que la ciberseguridad se ha convertido en la clave de todo nuestro sistema. Nos desenvolvemos en un entorno altamente interconectado y digitalizado en casi la totalidad de sus procesos, que lo hace especialmente vulnerable a ataques capaces de interrumpir la actividad y afectar al funcionamiento de cualquier sector.
La extensión de ámbitos como el Internet de las Cosas amplía considerablemente la superficie de exposición, mientras que la automatización basada en datos y su tratamiento mediante herramientas de Inteligencia Artificial representan nuevos retos constantes para proteger cualquier infraestructura considerada crítica. En este contexto, la economía actual ha convertido en crítica toda la cadena de suministro, haciendo que la protección de los sistemas digitales resulte tan imprescindible hoy como lo fue en su momento la instalación de medidas físicas en seguridad.
La relevancia de la ciberseguridad es ya tan importante que forma parte de la Estrategia Nacional de Defensa. Pero, si hay un sector en el que podamos decir con total certeza que la ciberseguridad salva vidas a diario, es el de la salud y la sanidad.
La ingeniería social es una de las técnicas más utilizadas en el ámbito de la ciberseguridad. A diferencia de las estrategias que se centran en aspectos técnicos, este tipo de acciones se apoyan en el factor más complejo y difícil de prever dentro de cualquier organización: las personas.
En muchos casos, los sistemas de seguridad cuentan con medidas tecnológicas muy avanzadas, por lo que algunos atacantes optan por centrarse en la interacción humana para obtener información, acceder a sistemas o comprender el funcionamiento interno de una organización.
En un contexto marcado por la incertidumbre geopolítica, los eventos climáticos extremos y la creciente dependencia tecnológica, la resiliencia de las infraestructuras críticas se ha convertido en una prioridad estratégica. En este escenario, existe una red que suele pasar desapercibida, pero que sostiene el pulso económico del país: la red de gas en España.
Este fue el eje central del encuentro celebrado en Vodafone Lab Madrid dentro de los Círculos Estratégicos de Vodafone Empresas, conducido por José Antonio Martínez "JAM", Director de Cuentas Estratégicas en Vodafone Business, donde destacados líderes del sector analizaron cómo esta "red invisible" se enfrenta a una transformación sin precedentes marcada por la soberanía energética, la descarbonización y una digitalización masiva que redefine su naturaleza como red crítica.
La digitalización de todos los procesos de la cadena de suministro ha convertido a las redes de comunicaciones en la plataforma que sostiene al resto de infraestructuras críticas del Estado. Cuando todo está conectado, desde los servicios públicos administrativos a la sanidad, las operaciones comerciales, la producción industrial y hasta la defensa nacional, mantener operativos todos los sistemas, los centros de datos, los dispositivos IoT o las comunicaciones por voz, convierte a la red en un elemento clave de la infraestructura crítica sobre el que se concentran todos los esfuerzos por garantizar su robustez y su resiliencia.
Escenarios geoestratégicos inciertos e inestables, eventos meteorológicos como la DANA o incidencias como el apagón de 2025 nos obligan a tomar conciencia de esa necesidad de proteger las operaciones de red y ampliar las posibilidades de conectividad alternativas. Así, la integración del satélite en la estrategia de IT ya no puede considerarse un lujo ni una innovación experimental. Es, cada vez más, un estándar de resiliencia necesario dentro de cualquier arquitectura de infraestructura crítica moderna.
Los límites actuales de la Inteligencia Artificial son físicos, o lo que es lo mismo, donde encuentra mayor freno a su evolución es el soporte de hardware que hace posible la computación con unas exigencias de rendimiento y proceso muy superiores a los cálculos a los que la industria estaba acostumbrada. Además, el escalado de la IA tradicional comienza a chocar con los límites de la sostenibilidad energética. Frente a estas limitaciones, surge una arquitectura disruptiva inspirada en el órgano más eficiente de la naturaleza: el cerebro humano. La computación neuromórfica es una nueva tendencia académica que se ha consolidado como una tecnología esencial la hoja de ruta estratégica para superar los cuellos de botella de la infraestructura convencional, especialmente en entornos donde la eficiencia energética y la capacidad de procesamiento son críticas para el negocio.
A diferencia de la arquitectura clásica de von Neumann, que separa físicamente la memoria del procesamiento provocando latencias críticas, los sistemas neuromórficos integran ambas funciones en neuronas y sinapsis artificiales. Este enfoque permite un procesamiento de información asincrónico y masivamente paralelo. En lugar de operar de forma continua, el sistema solo consume energía cuando detecta un estímulo relevante, lo que se conoce como computación basada en eventos. Es lo que se conoce como redes neuronales de impulsos (SNN), un paradigma que imita los "spikes" eléctricos de la biología para alcanzar niveles de eficiencia energética hasta 100 veces superiores a los de las redes neuronales convencionales, convirtiéndose en un pilar para el desarrollo de una inteligencia artificial sostenible.
El concepto de Gemelo Digital, conocido globalmente como Digital Twins, está emergiendo como una de las tecnologías más transformadoras para todos los sectores, desde la industria, la logística o la energía, a los servicios públicos, la ciberseguridad y las infraestructuras críticas. Un Gemelo Digital es, esencialmente, una réplica virtual dinámica de un activo físico, proceso o sistema completo. Pero no se trata simplemente de un modelo 3D o una simulación avanzada. Lo que lo convierte en una herramienta estratégica es su capacidad de alimentarse continuamente con datos del mundo real, permitiendo observar, analizar y optimizar operaciones en tiempo real.
Esta réplica exacta de un sistema completo es mucho más que un simple back up, o copia de respaldo con la que restaurar un incidente concreto, como un ciberataque. Es todo un banco de pruebas a modo de sandbox en el que se ejecutan simulaciones de todo tipo, desde modelos A/B hasta pruebas de resiliencia frente a ciberataques.
Esta capacidad de anticipación convierte al gemelo digital en una ventaja competitiva clave, ya que permite tomar mejores decisiones basadas en datos vivos que reflejan el comportamiento real del sistema.
Si pensamos en la definición tradicional de red lo primero que nos vendrá a la mente es el concepto de canal o plataforma sobre la que circula algún tipo de información. Puede ser voz o datos, o si regresamos a un concepto anterior más analógico, algún tipo de vehículo o mercancía.
Sin embargo, esta definición está cambiando rápidamente con la llegada de nuevas capacidades como el sensing, que permiten a la red no solo transportar información, sino también interpretarla.
Es decir, hasta ahora, consideramos una red como algo pasivo que soporta un tráfico más o menos activo. Pero las nuevas redes de telecomunicaciones cambiarán esa visión o paradigma porque serán más que meros soportes, para convertirse en un dispositivo más.
Hablamos de redes inteligentes capaces de percibir el entorno físico mediante sensing, una capacidad que marcará la evolución hacia el 6G. Su potencial transformador es tal que conviene empezar a familiarizarse con el concepto cuanto antes.
La digitalización del sistema sanitario europeo está entrando en una nueva fase. El ENDS (Espacio Nacional de Datos de Salud) es la infraestructura que permitirá compartir datos clínicos en España de forma segura e interoperable. En este contexto, el ENDS se posiciona como uno de los pilares clave de esta transformación en España al configurar un ecosistema de datos sanitarios interoperable que integra y protege la información clínica de los ciudadanos.
El ENDS nace como un ecosistema de datos sanitarios interoperable que permitirá a hospitales, centros de salud y profesionales médicos acceder a información clínica relevante con independencia de la comunidad autónoma donde se haya generado. Su despliegue definitivo está previsto para 2026 como parte de la Estrategia de Salud Digital impulsada por el Gobierno español y alineada con las iniciativas europeas de datos sanitarios.
El objetivo es romper las barreras históricas entre sistemas regionales de salud, mejorar la continuidad asistencial y preparar la infraestructura sanitaria para una nueva generación de servicios digitales basados en datos.
Más que una simple base de datos, el ENDS aspira a convertirse en el tejido digital que conecte el sistema sanitario español con el futuro Espacio Europeo de Datos de Salud permitiendo que la información médica acompañe al ciudadano allí donde se encuentre.
En esta edición del Vodafone Lab Café, expertos del sector analizan cómo la inteligencia artificial, el IoT y el 5G están transformando la sanidad hacia un modelo más conectado, eficiente y centrado en el paciente.
La tecnología está redefiniendo el presente y el futuro del sector sanitario. En esta nueva sesión de Vodafone Lab Café, grabada en directo el pasado 12 de marzo, analizamos cómo la IA en sanidad, el IoT y el 5G están impulsando una sanidad más conectada, más eficiente y más centrada en el paciente.
En la conversación, moderada por Carlos Becker, Director de Marketing y Desarrollo de Negocio en Vodafone Business, participaron José Pereira, Director de Medios y Responsable de Transformación Digital en Asisa; Cristian Pascual, CEO y cofundador de Mediktor y presidente de Barcelona & Madrid Health Hub; Nerea Míguez, Directora de Desarrollo IoT y Redes Privadas 5G en Vodafone Business; y Pablo Soto, Director del Programa de Inteligencia Artificial e Innovación en Vodafone Business.
El desarrollo de software ha entrado en una nueva fase marcada por la irrupción de la IA generativa aplicada al código. Entre los conceptos que están ganando protagonismo en la industria tecnológica destaca el vibe coding, un enfoque emergente que promete transformar radicalmente la forma en que se construyen aplicaciones.
El vibe coding se basa en la idea sencilla pero disruptiva de desarrollar software describiendo lo que se quiere en lenguaje natural, mientras herramientas de inteligencia artificial generan el código necesario para hacerlo realidad. Plataformas como Cursor o agentes autónomos de desarrollo permiten que el programador actúe más como director creativo del sistema que como autor directo de cada línea de código.
En este nuevo paradigma, el humano define la intención, la arquitectura conceptual o el “vibe” del producto, mientras la IA ejecuta la lógica técnica. El resultado puede ser sorprendente con aplicaciones completas generadas en cuestión de horas.
Esta velocidad introduce un dilema estratégico para empresas tecnológicas y equipos de ingeniería. La misma tecnología que acelera el desarrollo puede también diluir el control sobre lo que ocurre dentro del código. Entre la promesa de productividad y el riesgo de deuda técnica masiva, el debate sobre el vibe coding apenas comienza. Vamos a intentar arrojar un poco de luz en esta cuestión.
El Mobile World Congress (MWC) de Barcelona 2026 no ha sido solo una fecha en el calendario, aunque no haya directivo o profesional interesado en las cuestiones IT que no la tenga marcada año tras año. Se trata del barómetro que define hacia dónde se dirige la economía global, tan ligada a la tecnología, que ya no se entiende ninguna actividad o industria que no esté definida por ella.
Para Vodafone España, la edición MWC 2026 adquirió una dimensión aún más especial al celebrar el 20º aniversario en Barcelona, cita a la que siempre hemos acudido en los más de 25 años de nuestra presencia en España. Este año hemos podido ver, de nuevo, cómo esa presencia que materializa ideas se transforma en acuerdos y pone en valor la tecnología por su impacto en los negocios y las personas. Es momento ahora de hacer un repaso a lo más destacado de nuestra participación en este evento, con un resumen de las presentaciones que llevamos a cabo.