Futuro de la computación cuántica, neuromórfica y nanotecnológica
Por Editorial Vodafone Business
Las sucesivas citas tecnológicas de 2018 van desvelando el futuro de la computación, cada vez más potente y a la vez en chips increíblemente más pequeños. Además de la nanotecnología, deberemos aprender conceptos como computación cuántica y neuromórfica.
En la conferencia Think 2018, IBM presentó la computadora más pequeña del mundo, del tamaño de un grano de sal: tan solo un milímetro. Sin embargo, pese a ser necesario un microscopio para observarlo, cuenta con una capacidad similar a los primeros chips x86 de los primeros IBM de escritorio. Según IBM Research, empaqueta varios cientos de miles de transistores en una huella apenas visible para el ojo humano.
.
Para IBM, este tipo de dispositivo permitirá incluirlo en prácticamente cualquier objeto, y más allá de IoT, lo convertirá en un ordenador capaz, por ejemplo, de manejar tecnología Blockchain. La importancia de esta posibilidad radica en evitar fraudes y falsificaciones, causantes de pérdidas en la economía global de más de 600 millones de dólares anuales y que en el caso de la industria farmacéutica, donde hay vidas en juego, llega a representar el 70% del mercado.
«Dentro de los próximos cinco años, los anclajes criptográficos, como puntos de tinta o pequeñas computadoras más pequeñas que un grano de sal, se integrarán en los objetos y dispositivos cotidianos.»
Se usarán en conjunto con la tecnología de contabilidad distribuida de blockchain para garantizar la autenticidad de un objeto desde su punto de origen hasta cuando llega a las manos del cliente. Estas tecnologías allanan el camino para nuevas soluciones que abordan la seguridad alimentaria, la autenticidad de los componentes fabricados, los productos genéticamente modificados, la identificación de objetos falsificados y la procedencia de productos de lujo «.
En el Consumer Electronics Show 2018 en Las Vegas, Intel anunció dos importantes hitos en sus esfuerzos por investigar y desarrollar futuras tecnologías informáticas, incluyendo computación cuántica y neuromórfica, que tienen el potencial de ayudar a las industrias, instituciones de investigación y la sociedad a resolver problemas que actualmente no pueden resolver las computadoras clásicas. Concretamente anunció el diseño, la fabricación y la entrega exitosos de un chip de prueba cuántica superconductor de 49 qubits y la promesa de la computación neuromórfica .
Meses después de la entrega de un chip de prueba superconductor de 17 qubits, Intel presentó «Tangle Lake», un chip de prueba cuántica superconductor de 49 qubits.
El chip lleva el nombre de una cadena de lagos en Alaska, un guiño a las temperaturas extremadamente frías y al estado enredado que requieren los bits cuánticos (o «qubits») para funcionar.
Tangle Lake representa un avance hacia el objetivo de Intel de desarrollar un sistema completo de computación cuántica, desde la arquitectura hasta los algoritmos y la electrónica de control. Lograr un chip de prueba de 49 qubits es un hito importante porque permitirá a los investigadores evaluar y mejorar las técnicas de corrección de errores y simular problemas de cómputo.
En la búsqueda de ofrecer un sistema de computación cuántica comercialmente viable, Mike Mayberry, vicepresidente corporativo y director general de Intel Labs, explicó que esperan que pasen de cinco a siete años antes de que la industria aborde los problemas de escala de ingeniería, y es probable que requiera 1 millón o más de qubits para lograr relevancia comercial.
La necesidad de escalar a un mayor número de qubits de trabajo es la razón por la cual Intel, además de invertir en qubits superconductores, también está investigando otro tipo llamado Spin Qubits en silicio.
Los Spin Qubits pueden tener una ventaja de escala porque son mucho más pequeños que los qubits superconductores. Estos spin qubits se parecen a un solo transistor de electrones, que es similar en muchos aspectos a los transistores convencionales y potencialmente puede fabricarse con procesos comparables. De hecho, Intel ya inventó un flujo de fabricación de Spin Qubit en su tecnología de proceso de 300 mm.
Loihi, la computación neuromórfica
Intel Labs también ha desarrollado un chip de investigación neuromórfica, cuyo nombre en código es «Loihi», que incluye circuitos digitales que imitan la operación básica del cerebro. Loihi combina entrenamiento e inferencia en un solo chip con el objetivo de hacer que el aprendizaje automático sea más eficiente.
Intel mostró así las investigaciones sobre la computación neuromórfica, un nuevo paradigma informático inspirado en cómo funciona el cerebro que podría desbloquear ganancias exponenciales en rendimiento y eficiencia energética para el futuro de la inteligencia artificial.
Los chips neuromórficos podrían usarse en última instancia en cualquier lugar donde los datos del mundo real se procesen en entornos en tiempo real en evolución. Por ejemplo, estos chips podrían permitir cámaras de seguridad más inteligentes e infraestructura de Smart City diseñada para la comunicación en tiempo real con vehículos autónomos.
Intel Corporation está progresando rápidamente al escalar los chips de prueba superconductores de cómputo cuántico a recuentos de qubit más altos: de 7 a 17 y ahora a 49 qubits (de izquierda a derecha). Se requieren múltiples conectores dorados para controlar y operar cada qubit. Crédito: Walden Kirsch / Intel Corporation
En la primera mitad de este año, Intel planea compartir el chip de prueba Loihi con las principales instituciones universitarias y de investigación mientras lo aplica a conjuntos de datos y problemas más complejos.
Nuestro objetivo es construir una sociedad centrada en el progreso socioeconómico. Creemos que la tecnología y la conectividad pueden ayudar a mejorar la vida de millones de personas y empresas. Tenemos el compromiso de hacerlo reduciendo nuestro impacto ambiental y construyendo una sociedad digital inclusiva que respeta nuestro planeta.
Los robots ya están a nuestro lado cada día, tanto en casa como en el trabajo. Entendemos por robot una herramienta, ya sea corpórea, o en forma de una voz o un texto que nos responde, con el que interactuamos para realizar tareas conjuntas. Puede ser un chatbot que nos responde al teléfono, un asistente de voz o una compleja maquinaria industrial que acepta comandos de voz. Que cumplan con su cometido de forma rápida, eficaz o segura depende de que nos entiendan. Pero el lenguaje humano es complejo y no siempre cumple estrictamente con las normas de sintaxis, gramática o pronunciación. ¿Podrán los robots captar los matices de una conversación con humanos y "leer entre líneas" lo que realmente se está queriendo decir?
Uno de los pilares de la digitalización de los negocios y los servicios públicos es la denominada nube, o cloud computing que permite acceder a los datos desde cualquier lugar. Algo tan habitual hoy en día como enviar esos datos a la red y recuperarlos después, como hace el correo electrónico, ha evolucionado hasta niveles de funcionalidad tales que permiten la existencia de todo un ecosistema de dispositivos y sensores conectados a Internet de las Cosas, o que esos dispositivos no requieran de un procesador porque toda la computación se realiza en la nube.
Esta transformación radica en la forma en que las empresas almacenan, procesan y analizan datos implica así un aumento exponencial de dispositivos conectados, aplicaciones en tiempo real y demandas de baja latencia, lo que nos permite entender la propia red casi como un dispositivo sin una clara frontera entre los procesos. Eso sería, en pocas palabras, lo que se denomina Edge Computing y que será cada vez más habitual gracias a las características de la red 5G.
La ciberseguridad ya no es una opción y, como todos los expertos alertan, existen dos tipos de empresas: las que han sufrido un ataque y las que lo van a sufrir, o no se han enterado de que lo han tenido. No importa nuestro tamaño o actividad, ya que en muchas ocasiones los ataques se producen como puente a presas mayores. Por eso, contar con una estrategia de detección y respuesta en tiempo real, apoyada por un servicio MDR y tecnologías avanzadas, es esencial para proteger tu empresa hoy mismo. No se trata solo de prevenir, sino de estar preparados para adaptarse y resistir. Porque en ciberseguridad, la mejor defensa es una buena anticipación.
De hecho, la ciberseguridad no puede ser una reacción, sino que debe ser una estrategia proactiva que esté integrada en todo el modelo de negocio, si queremos conservarlo. Además, las amenazas evolucionan constantemente, y los ciberdelincuentes emplean cada vez técnicas más sofisticadas que requieren una vigilancia y actualización de nuestras defensas también continua.
Las empresas se enfrentan de forma creciente a una avalancha de riesgos y de ciberataques que merman su productividad y competitividad. Ante este panorama, y con el objetivo de fortalecer la resiliencia digital, la Unión Europea desarrolló la Directiva NIS2 que entró en vigor el 16 de enero de 2023.
Esta norma sustituye a la Directiva NIS original de 2016 y supone una ampliación del marco regulatorio existente. Su objetivo es ampliar el número de empresas que tienen que cumplir la normativa y establecer requisitos más estrictos y claros para la gestión de los riesgos de ciberseguridad.
España se encuentra ante un punto de inflexión en la gestión del agua. A la presión creciente del cambio climático, las sequías recurrentes y el envejecimiento de las infraestructuras, se suma ahora una oportunidad histórica: el Proyecto Estratégico para la Recuperación y Transformación Económica (PERTE) del Ciclo del Agua. Con más de 3.000 millones de euros movilizados, el PERTE ofrece el impulso necesario para digitalizar de forma integral el sector hídrico. Y en el centro de esta transformación se encuentra una tecnología que ya está revolucionando otros sectores: el Internet de las Cosas (IoT).
Los datos hablan por sí solos: un cuarto de las tuberías en España tiene más de 40 años y apenas un 17% ha sido renovado en la última década. Este envejecimiento conlleva fugas, roturas y averías que suponen pérdidas diarias de hasta 38 litros por habitante. En total, más de 695.000 millones de litros de agua se pierden al año, según el INE. Y cada gota cuenta. En paralelo, muchas redes urbanas siguen gestionándose con sistemas analógicos, lo que dificulta una respuesta ágil y basada en datos.
No se trata solo de evitar el despilfarro. La gestión deficiente del agua conlleva costes operativos elevados, sobrecarga energética y una menor resiliencia ante sequías, olas de calor o episodios extremos. Ante este panorama, la digitalización del ciclo del agua ya no es solo una opción: es una necesidad estratégica.
La tecnología háptica, o la capacidad de sentir y tocar en el mundo digital, ha dado un gran paso adelante gracias a un innovador desarrollo en el campo de la realidad virtual (VR) y aumentada (AR). Un equipo de investigación liderado por el profesor Park Jang-Ung del Instituto de Ciencias Básicas (IBS) ha desarrollado una tecnología que promete sensaciones táctiles uniformes y precisas en pantallas transparentes, algo que podría revolucionar la interacción entre los usuarios y los dispositivos inteligentes.
El IoT se ha convertido en una herramienta concreta y rentable que automatiza y realiza procesos a distancia, más allá del mero dispositivo conectado, y transforma datos en conocimiento, ayudando así a la toma de decisiones estratégicas. Las empresas que apuesten por soluciones de análisis IoT no solo mejorarán su eficiencia y rentabilidad, sino que estarán mejor preparadas para anticiparse al futuro y adaptarse a un mercado cada vez más competitivo y digital.
Los datos son, hoy más que nunca, el activo más valioso de cualquier organización. Pero su verdadero poder radica en la capacidad de convertirlos en conocimiento útil para tomar decisiones ágiles, reducir costes y anticiparse al cambio. El Internet de las Cosas y sus soluciones de análisis de datos son la clave para lograrlo. Si aún no has comenzado a utilizar IoT o quieres saber cuál será el siguiente paso, sigue leyendo.
La eficiencia empresarial hoy no se mide solo por la reducción de costes, sino por la capacidad de adaptarse, innovar y escalar rápidamente. Integrar soluciones SaaS en entornos de nube flexible permite a las organizaciones combinar lo mejor del software moderno con infraestructuras tecnológicas altamente adaptables. Para las empresas que desean mantenerse competitivas y preparadas para el futuro, esta combinación no es una opción: es una necesidad estratégica.
De esta forma, los modelos SaaS (Software as a Service) dentro de entornos de nube flexibles, se han consolidado como una estrategia clave para mejorar la eficiencia operativa. Este artículo explora distintos modelos como la Cloud Privada, la Cloud Pública y los servicios profesionales que se acompañan para aplicarlos en el día a día de forma personalizada.
A partir del 1 de enero de 2026 todos los vehículos que circulen por las carreteras españolas deberán llevar un nuevo dispositivo de seguridad. Se trata de una baliza de emergencia luminosa que además está conectada por IoT para que la incidencia esté geolocalizada y las asistencias puedan llegar antes al lugar. Esta novedad en las normas de tráfico afecta de lleno a las flotas profesionales, que deberán adaptarse a un cambio normativo en materia de seguridad vial. La Dirección General de Tráfico (DGT) ha establecido que los tradicionales triángulos de emergencia dejarán de ser válidos a partir del año que viene, para señalizar averías o accidentes en carretera, siendo reemplazados por la baliza v16 homologada con geolocalización. Esta nueva obligación supone una transformación significativa para las empresas que gestionan vehículos, tanto por su impacto operativo como por las oportunidades de mejora en seguridad y eficiencia.
A estas alturas no descubrimos nada si decimos que la ciberseguridad es una de las prioridades para empresas, organizaciones y ciudadanos particulares en un 2025 en el que no hay día que no salte alguna noticia relacionada con un incidente de seguridad. Desde nuestra responsabilidad con nuestros clientes, a todos les insistimos en que solo hay dos tipos de empresas, las que han sufrido un ataque y las que no se han enterado. Sin duda, esa es una de las grandes preocupaciones de Roberto Lara, Director de Ciberseguridad en Vodafone España, para quien ese “78,4% de las brechas de seguridad en nuestro país, originadas a través de vulnerabilidades en dispositivos móviles nos recuerda que proteger el entorno móvil no es opcional sino una prioridad”.
Llevo un tiempo con ganas de escribir sobre marketing B2B y como juega en el ciclo de vida de los clientes empresariales y en la escalabilidad de las ventas y el negocio. En el negocio Telco “sin escala no hay negocio y sin marketing no hay escala”.
El B2B es un gran desconocido, con poca gente dispuesta a entenderlo, donde la gente joven no parece querer adentrarse y repleto de profesionales donde su gran valor es la experiencia, mayormente en puestos de ventas. Pero el mundo cambia, los productos de empresas son más digitales que nunca, la gestión del valor de la cartera es imprescindible, la eficiencia de los canales no presenciales es crítica y las herramientas de marketing digital son cruciales para que el B2B siga creciendo exponencialmente, no solo en la pequeña empresa, sino también en la gestión coordinada y automatizada de grandes cuentas.
Desde el lanzamiento de las aplicaciones basadas en los Modelos de Lenguaje LLM que acercan la inteligencia artificial a todo tipo de usuarios, todas las empresas parecen querer aplicar este tipo de soluciones a sus modelos de negocio, aunque muchas se sienten perdidas y no saben exactamente por dónde empezar. Una de esas aplicaciones a su alcance es Google Gemini, que puede integrarse en todas las herramientas que ya utilizas en tu Workspace. En este artículo vamos a guiarte en los primeros pasos y darte ideas de cómo aprovechar al máximo sus posibilidades.
La inteligencia artificial es capaz de tomar decisiones en función de una serie de datos almacenados en su memoria, que analiza y transforma en acciones concretas como respuesta a comandos o preguntas también concretas. Cuando ese algoritmo es capaz de utilizar sus propias respuestas para tomar decisiones mejores en la siguiente orden que recibe, es cuando hablamos de Aprendizaje Automático y depende, básicamente, de cómo almacene ese aprendizaje en un tipo de memoria específica. Hasta ahora, ese proceso siempre ha sido puramente matemático y sujeto a una lógica binaria. Algo que podríamos llamar simple, comparado con el proceso complejo que realiza nuestro cerebro humano, gracias a esa maravilla de la naturaleza que son las sinapsis neuronales. Ahora, inspirándose en el cerebro humano, los investigadores han desarrollado un nuevo transistor sináptico capaz de pensar a un nivel superior.