La Inteligencia Artificial está demandando nuevo hardware más potente y específicamente diseñado para las cargas de trabajo y cálculos diferentes a las actuales, como son predicción, inferencia o intuición.
Para IBM, si vamos a hacer grandes avances en IA, nuestro hardware también debe cambiar. Comenzando con GPU, luego evolucionando a dispositivos analógicos, y después a computadoras cuánticas tolerantes a fallas.
El Deep Learningdistribuido (DDL) ha progresado a un ritmo de aproximadamente 2.5 veces por año desde 2009, cuando las GPU pasaron de aceleradores gráficos de videojuegos a formadores modelo de aprendizaje profundo. Los algoritmos DDL se «entrenan» en los datos visuales y de audio, y la mayor cantidad de GPU debería significar un aprendizaje más rápido.
Hasta la fecha, la eficiencia de escala del 95 por ciento del establecimiento récord de IBM (es decir, una capacitación mejorada a medida que se agregan más GPU) puede reconocer el 33.8 por ciento de 7,5 millones de imágenes, usando 256 GPU en 64 sistemas de energía «Minsky».
¿Qué hardware necesitamos desarrollar para continuar este ritmo de progreso e ir más allá de la Inteligencia Artificial?
En IBM Research creen que esta transición de las GPU ocurrirá en tres etapas. Primero, utilizarán GPU y crearán nuevos aceleradores con CMOS convencional a corto plazo para continuar; segundo, buscarán formas de explotar dispositivos analógicos y de baja precisión para reducir aún más la potencia y mejorar el rendimiento; y luego cuando ingresemos en la era de la computación cuántica, ésta potencialmente ofrecerá enfoques completamente nuevos.
Los aceleradores en CMOS aún tienen mucho que lograr porque los modelos de aprendizaje automático pueden tolerar cálculos imprecisos. Es precisamente porque «aprenden» que estos modelos pueden funcionar a través de errores (errores que nunca toleraremos en una transacción bancaria). En 2015, Suyong Gupta, et al. han demostrado en su documento ICML Aprendizaje profundo con precisión numérica limitada que, de hecho, los modelos de precisión reducida tienen una precisión equivalente al estándar actual de 64 bits, pero usan tan solo 14 bits de precisión de coma flotante.
Vemos esta precisión reducida, una tendencia de computación más rápida que contribuye a la mejora de 2.5X por año, al menos hasta el año 2022.
Eso nos da unos cinco años para ir más allá del cuello de botella de von Neumann y para los dispositivos analógicos. Mover datos hacia y desde la memoria ralentiza la capacitación de la red de aprendizaje profundo. Entonces, encontrar dispositivos analógicos que puedan combinar memoria y computación será importante para el progreso de la computación neuromórfica .
Computación neuromórfica que imita las células cerebrales
Su arquitectura de «neuronas» interconectadas reemplaza el cuello de botella de von-Neumann con señales de baja potencia que van directamente entre las neuronas para una computación más eficiente. El Laboratorio de Investigación de la Fuerza Aérea de los EE. UU. está probando una matriz de 64 chips del sistema IBM TrueNorth Neurosynaptic diseñado para la inferencia profunda de redes neuronales y el descubrimiento de información. El sistema usa CMOS digital estándar pero solo consume 10 vatios de energía para alimentar sus 64 millones de neuronas y 16 mil millones de sinapsis.
Recientemente, científicos de IBM demostraron la computación en memoria con 1 millón de dispositivos para aplicaciones en IA, publicando sus resultados, detección de correlación temporal usando memoria de cambio de fase computacional, en Nature Communications, y también presentándola en la sesión IEDM Recuperación de detección comprimida usando memoria computacional.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Más allá de las aplicaciones más populares que están convirtiendo la inteligencia artificial (IA) en una herramienta que nos rodea a diario en forma de chats y otros modelos de lenguaje similares, existen infinidad de aplicaciones en todos los sectores y actividades económicas que están transformando la forma en que entendemos los procesos.
Uno de los sectores que más está aprovechando las capacidades de aplicar algoritmos a sus tareas y objetivos es el financiero. Se trata de un sector en el que el tratamiento de datos numéricos y estadísticos es esencial y, por ello, está especialmente predispuesto para aprovechar las ventajas de este tipo de tecnología.
Por otra parte, la posibilidad de acercar su labor y servicio a los clientes de una forma más personalizada es especialmente útil si tenemos en cuenta la percepción que éstos tienen de forma habitual con respecto a sus entidades. Y es una realidad que la llamada banca inteligente ya está revolucionando la forma en que las instituciones bancarias operan, interactúan con sus clientes y diseñan sus productos y servicios. Vamos a analizar cómo la IA está cambiando radicalmente el panorama financiero, impulsando una nueva era de eficiencia, personalización y seguridad.
El rápido avance de la inteligencia artificial ha llevado a muchas organizaciones a decidir cómo integrarla de manera eficaz en sus procesos para no quedar rezagados. En este contexto, dos expertos de Microsoft como Magda Teruel (Partner Solution Architect, Copilot Champion) y Alejandro Cabrera (Technical Specialist Copilot) ofrecieron el webinar “Copilot y Agentes de Copilot en las organizaciones”, centrado en el rol de esta herramienta dentro de la estrategia de adopción de IA. A lo largo de la sesión, presentada por Luz Ruiz (Jefa de Producto de Microsoft 365 en Vodafone Business) ambos expertos ofrecieron una visión clara de los fundamentos tecnológicos que sustentan Copilot, las herramientas que lo componen, sus capacidades, y los desafíos y oportunidades que plantea su implementación en entornos corporativos.
La transformación digital de las administraciones públicas es una realidad imparable. Cada vez más organismos buscan modernizar sus servicios, optimizar recursos y responder con agilidad a las demandas de la ciudadanía. Por eso, la adopción de servicios en la nube puede ser la piedra angular de la innovación y la eficiencia en el sector público.
Como experto en ciberseguridad me encuentro demasiadas veces ante empresas u organismos que han sido víctimas de un ataque para el que no estaban preparados. Unas veces no lo suficiente y otras nada en absoluto. Es cierto que la seguridad total no existe, pero no lo es menos que la capacidad de respuesta, o como está de moda decir ahora, resiliencia, depende de cómo de preparados estuviéramos antes de ese incidente. En temas de ciberseguridad, puede ser tan importante lo que hagamos después de un ataque como lo que hagamos antes. De las conclusiones que saquemos a posteriori se pueden evitar futuros ataques tanto nuestros como de los demás.
El futuro del sector retail es prometedor y la tecnología hará que el comercio físico sea cada vez más rentable y mejorará la experiencia de compra de los clientes. Porque, aunque el comercio electrónico sea cada vez más potente y gane cuota de mercado, la mayoría de las personas siguen queriendo disfrutar de la experiencia de comprar en el comercio físico. De hecho, muchos estudios demuestran que, cuanto más crece el comercio electrónico, más crece también el comercio minorista físico.
Son muchas las marcas que comenzaron siendo nativas digitales que hoy han dado el salto al retail físico, haciendo el recorrido inverso a las tiendas tradicionales que abrieron sus comercios electrónicos. Unas y otras combinan la disponibilidad con la conveniencia del cliente, y complementan la compra online con el showroom o las experiencias en vivo, que refuerzan el branding y el sentido de pertenencia. Lo que sí tienes que tener en cuenta es que, aunque te centres en el retail físico, la tecnología puede impulsar tu negocio como nunca antes lo ha hecho, más allá de la presencia en la web o en las redes sociales. Hablamos de tecnologías como el Internet de las Cosas o el Data Driven, que facilitarán tu trabajo en muchas de las tareas repetitivas, o que requieren análisis de información, gracias también a tecnologías facilitadoras como el 5G o la Inteligencia Artificial. Estas herramientas no solo están optimizando procesos, sino que también están redefiniendo la experiencia del cliente y el modelo de negocio del comercio minorista. Vamos a ver cómo lo están haciendo.
Hay algunas cosas que tengo muy claras después de muchos años de labor comercial en el mundo de la empresa: quien tiene un buen socio, tiene un tesoro. Y puedes ser un socio de muchas maneras. Una de ellas, es como proveedor estratégico. En realidad, todos los colaboradores de cualquier tipo deberían ser estratégicos, pero lo cierto es que no todos lo son, en el sentido de ser irremplazables, y… ¿Quién no quiere ser único para sus clientes?
El control horario es obligatorio en España desde la aprobación del Real Decreto-ley 8/2019 y entró plenamente en vigor en 2025 con una actualización. De esta forma, todas las empresas deben llevar un registro diario de la jornada laboral en el que se especifique el horario de inicio y fin de cada trabajador, sin importar su modalidad de trabajo, ya sea presencial, remoto, parcial, etc.
Aunque el registro de entrada y salida de los trabajadores a sus puestos no es nada nuevo, sí lo es la nueva realidad de muchos de esos trabajadores que ya no entran y salen de una oficina física, sino virtual, trabajando desde su casa o cualquier otro lugar en remoto, sin horarios estrictos. Entre esos cambios culturales en la empresa, ya no se trata tanto de puntualidad como de evitar abusos laborales o fraudes en las horas extras. Así, los viejos métodos, como relojes que marcan tarjetas o las hojas de firma, ya no son válidas y requieren su actualización a los nuevos tiempos.
Estamos acostumbrados a navegar por internet sin interrupciones y a gran velocidad y, cuando no es así, abandonamos el sitio sin esperar si tarda más de 3 segundos. Si tu web es lenta, no solo afectará a la experiencia de usuario y se irá sin que cumpla su objetivo, afectando a las conversiones, también repercutirá en el posicionamiento SEO y en la reputación de la marca. Por eso optimizar el rendimiento web es ya una cuestión estratégica para la que hay soluciones específicas.
En un mundo donde incluso unos minutos de caída pueden traducirse en pérdidas millonarias, garantizar la disponibilidad de los servicios online ya no es una opción, sino una necesidad crítica. Existen muchas razones por las que pueden verse interrumpidos los servicios online de una organización. Teniendo en cuenta que prácticamente ningún sector o tipo de actividad está hoy sin digitalizar y que las comunicaciones y los datos son esenciales para la supervivencia, las interrupciones pueden generar grandes pérdidas económicas y afectar la reputación de una compañía o institución.
En este contexto, la computación en la nube (cloud computing) juega un papel fundamental para garantizar la disponibilidad y resiliencia de los servicios online. Esta nube está igualmente presente en el día a día de la inmensa mayoría de usuarios que, por ejemplo, utilizan correo electrónico no corporativo, o sube sus fotos a una red social y quedan allí almacenadas sin ocupar espacio de memoria. A nivel corporativo, con las consecuentes medidas de seguridad y capacidad de personalización de estos servicios conectados a la nube, son la mejor garantía de que su actividad va a estar siempre disponible. Dada la complejidad de las necesidades de cada organización, también existen diferentes opciones de utilizar el cloud según los casos. La principal diferenciación la encontramos entre el uso de nubes públicas o nubes privadas.
Una nueva amenaza seria a nuestros sistemas de seguridad actuales. ¿Cómo podemos proteger nuestros datos en un mundo donde las leyes de la física cuántica podrían romper nuestros sistemas de cifrado más robustos? La respuesta podría estar en los avances en la criptografía también cuántica.
La ciberseguridad ha trascendido el ámbito puramente técnico para consolidarse como un pilar estratégico en cualquier organización moderna. Las amenazas digitales han experimentado un crecimiento exponencial tanto en sofisticación como en volumen, dejando obsoletas las aproximaciones tradicionales a la seguridad.
A medida que una organización amplía su infraestructura digital, también crece su exposición a las ciberamenazas. El Pentesting, o prueba de penetración, permite detectar de manera proactiva vulnerabilidades antes de que sean explotadas por actores malintencionados. Se trata de una auditoría técnica con un enfoque ofensivo.
El pasado 2 de abril se celebró el 4º Congreso de Ciberseguridad de Andalucía en Málaga, organizado por la Agencia Digital de Andalucía a través del Centro de Ciberseguridad de Andalucía (CIAN). Allí cada experto aportó su visión de cómo están las cosas en este terreno y en especial en el sector sanitario. Pasados unos días, nos gustaría profundizar un poco más en la visión sobre la importancia de la ciberseguridad como escudo inmunológico del sector salud, que es como se titulaba la ponencia presentada en dicho foro por Iván Portillo, Responsable de Inteligencia y Defensa en Cybersecurity Business Unit de Vodafone Business.
El símil farmacológico tenía todo el sentido, más allá de jugar con las palabras, ya que al igual que hacemos con una enfermedad o patología clínica que nos perjudica la salud física, en términos digitales los ataques que sufrimos no solo son prevenibles como hacemos con las vacunas, reforzando nuestras defensas para hacernos inmunes, sino que también requiere de un tratamiento posterior que nos recupere y elimine el contagio al resto de nuestro organismo o se propague a otros.