Vodafone

Saltar al contenido principal
cabecera nuestra vision

Nuestra Visión

Explora con nosotros el futuro

Artículos Nuestra Visión

Artículo
Grandes Empresas

- Tiempo de lectura

Qu茅 es el Ecosistema de Innovaci贸n y por qu茅 ya est谩 trabajando para ti

Por Editorial Vodafone Business
Hoy todos hablan de digitalización, transformación o disrupción ¿pero por dónde empezar? En Vodafone Business sabemos que hablar de innovación y desarrollo para las empresas no puede quedarse en un ejercicio aspiracional y que, más allá de las ideas atrevidas y los tecnicismos, las empresas necesitan poder aplicar todas las mejoras en metodología, procesos y sistemas que la tecnología nos ofrece. 
La buena noticia es que hace años que los mejores expertos y profesionales en todos los sectores están trabajando para ti como un verdadero Think Tank, en el que debaten, comparten conocimiento y cocrean soluciones concretas, o ponen los cimientos de lo que está por llegar. Hablamos del Ecosistema de Innovación Vodafone, un espacio híbrido en el que surgen las ideas que tu empresa necesita.
Y mejor aún, tanto en forma presencial como virtual, el Vodafone Innovation Ecosystem está abierto a tu participación. Porque hoy el tamaño de una empresa no es lo que define su capacidad de innovar y se ha demostrado que toda transformación es mucho más ágil gracias a lo que llamamos Innovación Abierta. 
Hoy el concepto competencia cede paso a la colaboración, y los sectores y modelos de negocio transmutan en ecosistemas donde clientes y proveedores se convierten en colaboradores.  Esa Open Innovation es nuestra la filosofía de trabajo y el lugar al que estás invitado.
Sólo en el ejercicio 2020/21, y pese a la pandemia, hemos acompañado a cerca de 2.000 empresas en su proceso de digitalización, con especial atención a tecnologías como Internet de las Cosas, Cloud o Big Data y, por supuesto, 5G. Y seguimos haciéndolo para convertir todo ese conocimiento en herramientas y soluciones concretas para ti. Hoy las industrias son híbridas, como lo son las empresas y los puestos de trabajo. Desde el inicio, en Vodafone Business tuvimos en cuenta la necesidad de disponer de los espacios físicos y digitales más adecuados para el intercambio de ideas y el fomento de la co-creación, tanto en formatos Design Thinking como de investigación y documentación. A día de hoy, este ecosistema ha puesto en marcha más de 140 iniciativas en las que han participado casi 6.000 profesionales en los distintos espacios: El Observatorio Vodafone de la Empresa como acelerador, las instalaciones del Vodafone Lab y el Business Experience Center (Madrid) o el Vodafone 5G Smart Center (Sevilla), junto a Vodafone University han sido punto de encuentro y taller de inspiración permanentes.

Esta nueva tecnología también va a ser una realidad, en no mucho tiempo, a nivel nacional, ya que el Plan España Digital 2025 tiene como objetivo principal seguir mejorando la accesibilidad de la Administración Pública mediante sistemas 5G.

Desde estos espacios, que insistimos están a tu disposición, se ha generado un conocimiento plasmado en 33 informes exclusivos, 12 artículos en nuestro blog de innovación The New Now https://www.thenewnow.es/ , 19 colaboraciones con medios externos, 15 vídeos producidos en exclusiva, 8 streamings y 6 webinars públicos. Pero como dijimos al inicio, lo más importante es que se han convertido en proyectos reales y soluciones concretas para todas las industrias, en especial sectores como Turismo, Retail, Farma, Banca, Seguros o Logística. Desatacan los 35 casos de uso de tecnología 5G que se han puesto en marcha en Andalucía. El programa Piloto 5G Andalucía, está impulsado por el Ministerio de Asuntos Económicos y Transformación Digital a través de Red.es, cofinanciado por Red.es a cargo de fondos comunitarios FEDER y que está siendo desarrollada por Vodafone y Huawei. Detrás de este ecosistema se encuentra además un equipo de personas dedicadas a ser facilitadoras de todo el proceso de innovación. Parte fundamental de la metodología es la figura de los Innovation Manager, profesionales de larga experiencia y constante actualización que lideran los equipos de trabajo, promueven iniciativas y se responsabilizan de bajar a tierra las ideas más útiles cocreadas entre todos. Su misión es poner en valor las estructuras, herramientas y personas que integran esta máquina de generar transformación.

Ahora ya sabes en qué consiste nuestro Ecosistema de Innovación Vodafone. Si tu empresa necesita innovar, y quieres hacerlo con los mejores, te invitamos a unirte. Nuestro lema es Meet the future Together, o lo que es lo mismo, construyamos el futuro juntos.  El futuro no espera, nosotros a ti sí. Puedes empezar por descargar alguno de los informes y papers generados, asistir a uno de nuestros webinars, suscribirte a nuestro newsletter o solicitar la atención de nuestros asesores en innovación en este formulario.

- Tiempo de lectura

Transmisi贸n de datos por comunicaci贸n l谩ser

Por Editorial Vodafone Business
La comunicación láser, también conocida como comunicación óptica, potenciará aún más las misiones con capacidades de transmisión de datos sin precedentes. En verano de 2021 la demostración de relé de comunicaciones láser de la NASA (LCRD) mostrará los poderes dinámicos de las tecnologías de este tipo de comunicaciones. Con la presencia humana y robótica cada vez mayor de la NASA en el espacio, las misiones pueden beneficiarse de una nueva forma de «hablar» con la Tierra. Desde el comienzo de los vuelos espaciales en la década de 1950, las misiones de la NASA han aprovechado las comunicaciones por radiofrecuencia para enviar datos desde y hacia el espacio. Las comunicaciones láser , también conocidas como comunicaciones ópticas, potenciarán aún más las misiones con capacidades de datos sin precedentes. A medida que los instrumentos científicos evolucionan para capturar datos de alta definición como video 4K, las misiones necesitarán formas rápidas de transmitir información a la Tierra. Con las comunicaciones láser, la NASA puede acelerar significativamente el proceso de transferencia de datos y potenciar más descubrimientos. Las comunicaciones láser permitirán que se transmitan de 10 a 100 veces más datos a la Tierra que los sistemas de radiofrecuencia actuales. Se necesitarían aproximadamente nueve semanas para transmitir un mapa completo de Marte a la Tierra con los sistemas de radiofrecuencia actuales. Con láseres, llevaría unos nueve días. Además, los sistemas de comunicaciones láser son ideales para misiones porque necesitan menos volumen, peso y potencia. Menos masa significa más espacio para los instrumentos científicos, y menos energía significa menos drenaje de los sistemas de energía de las naves espaciales. Todas estas son consideraciones de importancia crítica para la NASA al diseñar y desarrollar conceptos de misión. “LCRD demostrará todas las ventajas del uso de sistemas láser y nos permitirá aprender cómo usarlos mejor operativamente” —dijo el investigador principal David Israel en el Goddard Space Flight Center de la NASA en Greenbelt, Maryland—. «Con esta capacidad más probada, podemos comenzar a implementar comunicaciones láser en más misiones, convirtiéndola en una forma estandarizada de enviar y recibir datos». Tanto las ondas de radio como la luz infrarroja son radiación electromagnética con longitudes de onda en diferentes puntos del espectro electromagnético. Al igual que las ondas de radio, la luz infrarroja es invisible para el ojo humano, pero la encontramos todos los días con cosas como controles remotos de televisión y lámparas de calor. Las misiones modulan sus datos en las señales electromagnéticas para atravesar las distancias entre las naves espaciales y las estaciones terrestres de la Tierra. A medida que viaja la comunicación, las ondas se extienden. La luz infrarroja utilizada para las comunicaciones láser se diferencia de las ondas de radio porque la luz infrarroja empaqueta los datos en ondas significativamente más estrechas, lo que significa que las estaciones terrestres pueden recibir más datos a la vez.  Si bien las comunicaciones láser no son necesariamente más rápidas, se pueden transmitir más datos en un enlace descendente.Los terminales de comunicaciones láser en el espacio utilizan anchos de haz más estrechos que los sistemas de radiofrecuencia, proporcionando «huellas» más pequeñas que pueden minimizar la interferencia o mejorar la seguridad al reducir drásticamente el área geográfica donde alguien podría interceptar un enlace de comunicaciones. Sin embargo, un telescopio de comunicaciones láser que apunta a una estación terrestre debe ser exacto cuando se transmite desde miles o millones de millas de distancia. Una desviación de incluso una fracción de grado puede hacer que el láser pierda su objetivo por completo. Como un central que envía una pelota de fútbol a un delantero, necesita saber dónde enviar la pelota, es decir, la señal, para que el receptor pueda atrapar la pelota con calma. Los ingenieros de comunicaciones láser de la NASA han diseñado intrincadamente misiones láser para garantizar que esta conexión pueda suceder.

- Tiempo de lectura

Los 7 Retos de la Banca en 2021

Por Maria Gabriela Pardos
La Banca en 2021 enfrenta grandes retos derivados del cambio social y cultural que van a acelerar la transformación digital y su competencia con las Fintech y nuevos players como las Big Tech. El sector financiero se encuentra en pleno proceso de evolución marcado por la digitalización y con ella, la irrupción de nuevos players 100% digitales como las fintech o los nuevos proveedores financieros como los TPP (Third Party Providers). Esta capa tecnológica que se añade entre el cliente final y la banca llega a su extremo con las experiencias de entidades altamente automatizadas también en sus oficinas urbanas. Es el caso del primer «banco no tripulado»  que abrió ya en 2018. Una sucursal del China Construction Bank en Shanghai equipada con software de escaneo facial, una sala de realidad virtual (VR), hologramas y robots parlantes, y pantallas táctiles para el resto de operativas como el pago de facturas de servicios públicos. Durante el confinamiento por la pandemia, las sucursales bancarias mantuvieron el servicio básicamente por la necesidad de mantener el efectivo en circulación, mientras que el resto de servicios y operaciones se desvió al entorno digital siempre que fue posible.Surge la duda de si realmente, en un entorno tan digitalizado, la sucursal está aportando algo nuevo que no podamos encontrar ya en un cajero automático o internet. La mayoría se pregunta si cuando acudimos a un banco, cada vez menos frecuentemente, lo que realmente queremos es ser atendidos por una persona o por una máquina. La respuesta a esta duda inicial parece empezar a resolverse si hacemos caso al estudio reciente que asegura que «el 87% de los que han aumentado el uso digital durante la pandemia esperan seguir usando canales digitales al mismo nivel incluso cuando las sucursales vuelvan a abrir».Esa aceptación de la relación digital con los bancos por parte de los clientes interesa especialmente a las fintech y desarrolladores API que esperan competir por un trozo del pastel. ¿Serán las grandes empresas tecnológicas capaces de cambiar el paradigma? La misma encuesta encontró que «el 63% de los consumidores están abiertos a los nuevos actores de servicios financieros no tradicionales, como Google, Apple, PayPal, Facebook y otros» Vodafone Innovation Ecosystem creó en 2018 el grupo de expertos en Finanzas. Formado por los principales players sectoriales del país, trabaja con el objetivo de identificar los retos que enfrenta el sector y dar solución a través de la tecnología. En la última sesión de trabajo el Think Tank actualizó el informe anual de retos. La perspectiva 2021 centró el análisis en las alternativas de competencia o colaboración con los nuevos players y los cambios de cultura interna que serán necesarios para acompañar a los que ya se están produciendo en los usos, costumbres y exigencias de los clientes. Las conclusiones se plasmaron en un informe ejecutivo que puedes descargar online, y que fue presentado en un webinar bajo el paraguas de las Charlas del Observatorio Vodafone de la Empresa que también puede volver a ver aquí.

- Tiempo de lectura

Futuro de la computaci贸n cu谩ntica, neurom贸rfica y nanotecnol贸gica

Por Editorial Vodafone Business
Las sucesivas citas tecnológicas de 2018 van desvelando el futuro de la computación, cada vez más potente y a la vez en chips increíblemente más pequeños. Además de la nanotecnología, deberemos aprender conceptos como computación cuántica y neuromórfica. En la conferencia Think 2018, IBM presentó la computadora más pequeña del mundo, del tamaño de un grano de sal: tan solo un milímetro. Sin embargo, pese a ser necesario un microscopio para observarlo, cuenta con una capacidad similar a los primeros chips x86 de los primeros IBM de escritorio. Según IBM Research, empaqueta varios cientos de miles de transistores en una huella apenas visible para el ojo humano. .Para IBM, este tipo de dispositivo permitirá incluirlo en prácticamente cualquier objeto, y más allá de IoT, lo convertirá en un ordenador capaz, por ejemplo, de manejar tecnología Blockchain. La importancia de esta posibilidad radica en evitar fraudes y falsificaciones, causantes de pérdidas en la economía global de más de 600 millones de dólares anuales y que en el caso de la industria farmacéutica, donde hay vidas en juego, llega a representar el 70% del mercado. «Dentro de los próximos cinco años, los anclajes criptográficos, como puntos de tinta o pequeñas computadoras más pequeñas que un grano de sal, se integrarán en los objetos y dispositivos cotidianos.» Se usarán en conjunto con la tecnología de contabilidad distribuida de blockchain para garantizar la autenticidad de un objeto desde su punto de origen hasta cuando llega a las manos del cliente. Estas tecnologías allanan el camino para nuevas soluciones que abordan la seguridad alimentaria, la autenticidad de los componentes fabricados, los productos genéticamente modificados, la identificación de objetos falsificados y la procedencia de productos de lujo «. Fuente: IBM Research

- Tiempo de lectura

Retail digital en el horizonte 2020

Por Editorial Vodafone Business
Cuando miramos el horizonte del sector Retail Digital para los próximos años, tenemos la tentación de fijarnos demasiado en las grandes cifras de los grandes “players”. Por ejemplo, Amazon en los últimos 600 días aumentó su facturación 125.000 millones de dólares. Pero más allá de la cifra de ventas no solemos fijarnos en la trastienda: gastó 55.000 MM de dólares en logística para hacer llegar las cosas rápido a los clientes, 22.500 millones en tecnología, y aunque nos contaron que el comercio físico iba a morir, ellos se gastaron 13.700 millones en Whole Foods y gestionar la última milla. Mientras tanto Alibaba.com vendió en 24 horas más de 30,8 mil millones de dólares, lo que no hubiera sido posible sin controlar 200.000 tiendas de barrio. Lo mismo que JD.com cuando vendió 24,6 mil millones en los 28 días del Festival Shopping, mientras planea disponer de 1 millón de tiendas. Para entender estas magnitudes, el retailer que más tiendas físicas tiene en el mundo es 7 eleven, con 65.000.Significa eso el apocalipsis del retail tradicional como algunas voces anuncian? Los datos al detalle parecen negarlo:
El 31 de diciembre de 2019 habrá más tiendas físicas que el 31 de diciembre de 2018. Laureano Turienzo, Retail Institute Spain & Latam.

Turienzo, gran especialista en el sector y profesor de distintas escuelas de negocios, nos desgrana y explica algunos de esos datos y qué podemos aprender de ellos. Por ejemplo, frente al crecimiento de Amazon, Walmart “cambia el chip” y consiguen subir en tiendas físicas por primera vez en los últimos diez años, +4,5% y el 2% de tráfico. En paralelo, sus ventas online también crecieron hasta un 33%. Por contra, es cierto que ha habido grandes fracasos recientes entre grandes almacenes y cadenas de distribución como Toys’r’Us o Claire’s, pero hay que decir que sus problemas de gestión y caídas se remontan a una década en muchos casos. Antes, vivíamos en un Retail de Empresas, mientras que ahora es un Retail de Ecosistemas. ¿Eso qué significa? Que las empresas llegan a los clientes por múltiples fuentes y mediante omnicanalidad. Según el estudio “La Gran Bifurcación” realizado por Deloitte, en los últimos cinco años, los retailers llamados diferenciales, los que dan un valor añadido, han disparado las ventas. Los retailers de precio, también. En realidad están mejor que nunca, como por ejemplo Aldi o Lidl. El problema es cuando estás en medio. En medio eres prescindible. Ya no solo se distribuyen productos o servicios, se distribuyen experiencias. Así, los grandes almacenes y centros comerciales se reformulan. Esta necesidad de ofrecer experiencias viene motivada por la existencia de un consumidor más informado, exigente, impaciente y menos leal a las marcas. Tiene mucho que ver con lo que han aprendido de las experiencias digitales, y la transformación de todos los negocios. Para los clientes, la compra, como el resto de las experiencias que vive a diario, son omnicanal. Quiere inmediatez, pero también la satisfacción de su demanda de personalización que le haga sentir único, además de poder confiar en a quién compra gracias a la transparencia.
Artículo

- Tiempo de lectura

Robots en el quir贸fano y trabajo del equipo de operaciones

Por Editorial Vodafone Business
Un estudio explora cómo los robots en el quirófano y como impactan en el trabajo en equipo de la sala de operaciones. Los investigadores de Cornell analizaron de cerca el impacto de ese cambio en un nuevo documento, “Operando a distancia: cómo un robot quirúrgico teleoperado reconfigura el trabajo en equipo en la sala de operaciones”, presentado en la Conferencia ACM sobre trabajo cooperativo y computación social con soporte informático Del 3 al 7 de noviembre en Jersey City, Nueva Jersey. En la cirugía tradicional, los médicos y las enfermeras se apiñan alrededor de un paciente, pasan los instrumentos, se observan las caras y, a menudo, se tocan físicamente. Durante la cirugía robótica, sin embargo, el robot está en el centro de la habitación. El cirujano está en un rincón, con la cabeza sumergida en una consola. El resto del personal médico está disperso, por lo general, no se pueden ver las caras y están desocupados por largos períodos de tiempo. «El robot influye en los aspectos del trabajo en equipo y tal vez dificulta el trabajo en equipo», dijo la autora principal Hannah RM Pelikan, ex becaria de Cornell en el laboratorio de  Malte Jung , profesora asistente de ciencias de la información y coautora del paper. «Definitivamente tienen que hacer más cosas para superar los desafíos que presenta el robot, y necesitan desarrollar nuevas estrategias». Los investigadores pasaron dos años entrevistando al personal médico y observando cirugías en dos hospitales de EE. UU. Utilizando el Sistema quirúrgico Da Vinci , un robot grande con varios brazos equipados con instrumentos quirúrgicos y una cámara endoscópica. El video grabó más de 50 horas de cirugías realizadas con y sin Da Vinci, el robot quirúrgico más popular del mundo, controlado por el cirujano mediante un joystick y utilizado en 877,000 cirugías en 2017.
 
El Da Vinci ha sido acreditado con mayor precisión, mejor visión y reducción de la carga cognitiva y la fatiga física del cirujano, pero ningún estudio anterior examinó la distancia que crea dentro del equipo quirúrgico.
Los investigadores identificaron dos formas de distancia: cognitiva, con respecto a cómo el equipo colabora y se comunica; y afectivo, que se refiere a los sentimientos de desconexión emocional.
«Al entender que la dinámica social en equipos es realmente importante, me sorprendió la forma en que los ingenieros en ese contexto pensaban en la cirugía simplemente como la tarea mecánica de cortar y unir tejidos» —dijo Jung— «¿Qué sucede si tomas a un miembro crucial del equipo, a los líderes del equipo, y los metes en una caja?» En la cirugía abierta (no robótica), los cirujanos a menudo usaban una sola palabra o señal con la mano para indicar lo que necesitaban, pero en la cirugía robótica, donde la mayoría de los miembros del equipo no se podían ver, era necesario decirlo en voz alta. Los miembros del equipo de cirugía robótica se comunicaron como pilotos de avión, dando instrucciones verbales y confirmándolos verbalmente. «Está presionando, ¿verdad?», Preguntó un cirujano en un momento, y el primer asistente respondió: «Presionando, señor», ambos reconociendo la pregunta e insertando el «señor» para indicar el final de la oración. En la cirugía abierta, los miembros del equipo operativo tendían a estar muy en sintonía con el estado de ánimo y las emociones de los demás, una necesidad cuando se realiza un trabajo tan complejo e intrincado. Pero el robot hizo más difícil medir los sentimientos, dijo Pelikan. «En la sala de operaciones realmente se vigilan mutuamente, realmente notan que si alguien no se siente bien, ven las cosas antes de que usted las diga», dijo Pelikan, quien planea comenzar un estudio de doctorado en la Universidad de Linköping en Suecia en noviembre. «Con el robot eso es más difícil». Los asistentes del cirujano se necesitaban con menos frecuencia en las cirugías robóticas, a veces llevándolos a conversar entre ellos o distraerse ocasionalmente. Esos chats también podrían causar un estrés leve para los cirujanos que escuchan las conversaciones que ocurren sin ellos. Un cirujano le dijo a un entrevistador que se siente «solo» operando en la consola aparte de su equipo.Los equipos tendían a compensar este tipo de distancia afectiva en mayor o menor medida. Durante las cirugías abiertas, los cirujanos generalmente se fueron tan pronto como se completó la operación. Sin embargo, en las cirugías robóticas, los cirujanos a menudo se unían a los demás para lo que los investigadores denominaban un «grupo» después de los procedimientos, charlando, bromeando y, a veces, tocando.
«Ya podíamos comenzar a ver la incipiente generación de nuevos rituales quirúrgicos que se estaban inventando en respuesta a los tipos de desafíos que describimos», dijo  Steven Jackson , profesor asociado de ciencias de la información, quien también es coautor del artículo, junto con Amy. Cheatle, estudiante de doctorado en ciencias y tecnología.
Artículo

- Tiempo de lectura

Estimular la creatividad conectando la hipnagogia del sue帽o

Por Editorial Vodafone Business
Un equipo de investigadores del MIT ha creado un dispositivo manual que según ellos puede influenciar los micro sueños de una persona durante la hipnagogia, el estado semi-lúcido que ha sido descrito por muchas de las grandes mentes en la historia como su período de mayor creatividad. Según el equipo, el dispositivo funciona al ofrecer acceso a la mente durante el período justo antes de que se establezca el sueño.

- Tiempo de lectura

Sensores neuronales inal谩mbricos diminutos

Por Editorial Vodafone Business
Los sensores neuronales del tamaño de una mota de polvo, traducción de Neural Dust Sensor, también llamados por tanto polvo neural o mota de polvo neuronal es un término usado para referirse a dispositivos del tamaño de un milímetro operados como sensores nerviosos con alimentación inalámbrica. Estos sensores se pueden usar para estudiar, monitorear o controlar los nervios y los músculos y para controlar de forma remota la actividad neuronal. En la práctica, un tratamiento médico podría introducir miles de dispositivos de polvo neuronal en el cerebro humano. El término se deriva del Smart Dust, ”polvo inteligente», ya que los sensores utilizados como polvo neuronal también pueden definirse por este concepto.En 2016, los ingenieros de la Universidad de California, Berkeley, demostraron los primeros sensores de polvo neuronal ultrasónicos implantados, acercándose el día en que un dispositivo parecido a Fitbit podría monitorear los nervios internos, los músculos u órganos en tiempo real. Ahora, los ingenieros de Berkeley han llevado el polvo neuronal un paso adelante al construir el estimulador de nervio inalámbrico más pequeño y más eficiente hasta la fecha.
 
El dispositivo, llamado StimDust, abreviatura de estimular el polvo neuronal, agrega productos electrónicos más sofisticados al polvo neuronal sin sacrificar el pequeño tamaño o la seguridad de la tecnología, ampliando enormemente la gama de aplicaciones del polvo neuronal. El objetivo de los investigadores es hacer que StimDust se implante en el cuerpo a través de procedimientos mínimamente invasivos para controlar y tratar la enfermedad en un enfoque específico del paciente en tiempo real.StimDust tiene solo 6.5 milímetros cúbicos de volumen y se alimenta de forma inalámbrica por ultrasonido, que luego el dispositivo utiliza para potenciar la estimulación nerviosa con una eficiencia del 82 por ciento. «StimDust es el estimulador de tejidos profundos más pequeño que conocemos capaz de estimular a casi todos los objetivos terapéuticos principales en el sistema nervioso periférico», dijo Rikky Muller, codirector del trabajo y profesor asistente de ingeniería eléctrica y computadora. ciencias en Berkeley. «Este dispositivo representa nuestra visión de tener dispositivos pequeños que se pueden implantar de manera mínimamente invasiva para modular o estimular el sistema nervioso periférico, que ha demostrado ser eficaz en el tratamiento de varias enfermedades». La creación de polvo neuronal en Berkeley, dirigido por Maharbiz y José Carmena, profesor de ingeniería eléctrica y ciencias informáticas en Berkeley y miembro del Instituto de Neurociencia Helen Wills, ha abierto la puerta para la comunicación inalámbrica con el cerebro y el sistema nervioso periférico a través de minúsculas dispositivos implantables dentro del cuerpo que son alimentados por ultrasonido. Los equipos de ingeniería de todo el mundo están utilizando la plataforma de polvo neuronal para construir dispositivos que pueden cargarse de forma inalámbrica por ultrasonido. A Maharbiz se le ocurrió la idea de usar ultrasonido para alimentar y comunicarse con implantes muy pequeños. Junto con los profesores de Berkeley Elad Alon y Jan Rabaey, el grupo desarrolló el marco técnico para demostrar el poder de escalamiento del ultrasonido para dispositivos implantables. StimDust tiene un orden de magnitud más pequeño que cualquier dispositivo activo con capacidades similares que el equipo de investigación conozca. Los componentes de StimDust incluyen un solo piezocrystal, que es la antena del sistema, un circuito integrado de 1 milímetro y un condensador de almacenamiento de carga. StimDust tiene electrodos en la parte inferior, que hacen contacto con un nervio a través de un manguito que envuelve el nervio. Además del dispositivo, el equipo de Muller diseñó un protocolo inalámbrico personalizado que les brinda una amplia gama de programabilidad al tiempo que mantiene la eficiencia. Todo el dispositivo funciona con solo 4 microvatios y tiene una masa de 10 miligramos. Un esquema que detalla los componentes de StimDust, que incluye un solo piezocrystal, que es la antena del sistema, un circuito integrado de 1 milímetro y un condensador de almacenamiento de carga (Imagen cortesía de Rikky Muller)
Artículo

- Tiempo de lectura

SDN: Los muchos significados de las redes definidas por software

Por Editorial Vodafone Business
No hace mucho tiempo que el Software Defined Networking (SDN) se pregonó como la próxima gran novedad. Como evolución desde las redes tradicionales definidas estáticamente y configuradas manualmente, las Redes Definidas por Software (SDN) permitieron una vista general de la red, y la configuración automáticamente de los dispositivos en respuesta a eventos de la misma, como agregar o cambiar una oferta de servicio. Y con esta nueva habilidad de separar la configuración y el establecimiento de la red (plano de control), del movimiento real de paquetes a través de la red (plano de datos), SDN se presenta como la tecnología para revolucionar la administración de la red. A menudo encontramos que la tecnología tiene muchos significados diferentes. Por lo menos, la mayoría estará de acuerdo en que SDN se debe usar para separar los planos de control y de datos. En 2012, algunos opinaban que SDN no era más que el OpenFlow de Microsoft (un protocolo que permite que un controlador interactúe con los dispositivos). Estaban sorprendidos y confundidos porque habían estado implementando un enfoque basado en modelos con orquestación (automatización con una interfaz fácil de usar). Para agregar más confusión en esa línea, más adelante, la gente comenzó a recomendar la combinación de SDN con Network Function Virtualisation (NFV). Luego, en 2014, llegó SD-WAN, donde los fabricantes impulsaban hardware y software para mejorar la eficiencia operativa de las empresas. Luego vimos términos como interfaces de abstracción, nube y telemetría arrojados a un mix de SDN, y a cada protocolo e iniciativa se le dio el prefijo «abierto». Entonces, ¿quién tenía razón? ¿Y cuáles son todos estos componentes? Las siguientes secciones describen algunas de las mejores aplicaciones de SDN y algunos otros términos que se utilizan junto con la tecnología. Hay un tema común en todos los casos de uso de SDN, y esa es la aplicación de una capa de software de controlador adicional. Esto automatiza la provisión de servicios en una red, en lugar de requerir la interacción humana con los dispositivos. Al eliminar el error humano, la capa adicional proporciona consistencia y reduce el tiempo de administración. Sin embargo, cómo este controlador recibe instrucciones y cómo se comunica con los dispositivos, a menudo varía mucho.

- Tiempo de lectura

10 tendencias tecnol贸gicas que marcar谩n 2020

Por Editorial Vodafone Business
¿Qué tecnologías serán más determinantes en 2020? ¿Qué tendencias veremos en sus usos? ¿Cómo podemos anticiparnos a la llegada de nuevas herramientas que afectarán a nuestros negocios y vida diaria? Un año más, en The New Now nos atrevemos a hacer nuestras predicciones sobre cuáles serán las 10 tendencias tecnológicas en los próximos meses. Aunque la carrera comercial por los ordenadores personales parece cosa del pasado y hace tiempo que las keynotes de los fabricantes o desarrolladores se centran más en otros dispositivos como smartphones o asistentes de voz, en el mundo de la investigación los avances en velocidad y capacidad de proceso siguen produciéndose y prometen ser determinantes en los próximos años, empezando por este. El pasado 23 de octubre de 2019, Google anunció que había logrado la supremacía cuántica al realizar en 3 minutos y 20 segundos un cálculo que las mayores supercomputadoras del mundo no podrían completar en menos de 10.000 años. Su avance fue publicado en la revista Nature   y fue contestado por IBM rápidamente en su blog .  Se haya logrado o no esa “supremacía cuántica” descrita por John Preskill en 2012, lo que sí es cierto es que ambas compañías realizan avances con sus procesadores cuánticos de 53 qubits y que, como informa The New York Times, capitalistas de riesgo han invertido más de 450 millones de dólares en nuevas empresas que exploran esa tecnología. Programación de supercomputadoras user friendly Futuro de la computación cuántica, neuromórfica y nanotecnológica Las 10 supercomputadoras más rápidas del mundo Primera red cuántica de comunicaciones en China

- Tiempo de lectura

Teor铆a de juegos para la ciberseguridad

Por Editorial Vodafone Business
Un grupo de investigadores ha sentado las bases de un método para mejorar la seguridad cibernética en sistemas a gran escala, como la red eléctrica y las redes autónomas de defensa militar, mediante el aprovechamiento de la teoría de juegos y la creación de nuevos algoritmos inteligentes. Esta investigación, liderada por la Universidad de Purdue lidera y financiada por la National Science Foundation y Sandia National Laboratories, está basada en el “Equilibrio de Nash”, desarrollado por el Premio Nobel de Economía John Nash. El Equilibrio de Nash es un concepto perteneciente a la “Teoría de Juegos”, una rama de la Economía que estudia modelos matemáticos de conflicto y cooperación entre individuos supuestamente racionales. En el equilibrio de Nash la estrategia que elige cada uno de los participantes de un conflicto o juego es óptima, dada la estrategia que han elegido los demás. El trabajo también aplica la «Teoría prospectiva», que describe cómo las personas toman decisiones cuando hay incertidumbre y riesgo, decisiones que a menudo son solo en parte racionales. La investigación conducirá a una comprensión más completa de las vulnerabilidades que surgen en los sistemas interconectados a gran escala y nos guiará al diseño de sistemas más seguros, con los correspondientes beneficios sociales, explica Shreyas Sundaram, profesor asistente en la Escuela de Ingeniería Eléctrica y Computación de Purdue. Sundaram lidera la parte financiada por NSF del proyecto, trabajando con los investigadores co-principales Saurabh Bagchi, profesor en la Escuela de Ingeniería Eléctrica e Informática y Departamento de Informática, y Timothy Cason, profesor de economía en la Escuela de Administración Krannert, con el objetivo de abordar, con ambos proyectos, la complejidad de proteger los sistemas actuales a gran escala. El estudio global proporcionará nuevos conocimientos sobre los tipos de decisiones que toman los humanos cuando enfrentan amenazas de seguridad, a través de un enfoque integral que abarca la teoría y los experimentos.

- Tiempo de lectura

Tacto, Sentido y Sensibilidad de los robots

Por Editorial Vodafone Business
Hasta ahora, a los robots de apariencia humanoide se les dotaba de sentidos básicos para poder relacionarse con el entorno con seguridad como la visón y la audición, algo que no es muy diferente a integrar una cámara de vídeo y un micrófono para recopilar la información. Sistemas de IA también daban sentido a esos datos con tecnología de reconocimiento facial, por ejemplo. Otros sensores como termómetros podían aportar más información al robot. Ahora, los científicos trabajan para dotar a los robots del sentido del tacto. Los robots que necesitan manipular objetos delicados, y por supuesto aquellos que deban interactuar con humanos como en aplicaciones médicas, requieren de un nivel de sensores que detecte los objetos y aplique los movimientos con suavidad. Un equipo investigador de la Universidad de Cornell ha publicado en la revista Ciencia Robótica un ensayo con una mano robótica que utiliza tecnología óptica para imitar el sentido del tacto. La mayoría de los robots actuales tienen sensores en el exterior del cuerpo que detectan las cosas desde la superficie, mientras que los nuevos sensores están integrados dentro del cuerpo, por lo que en realidad puede detectar las fuerzas que se transmiten a través del espesor del robot, muy parecido a como lo hacemos nosotros y todos los organismos hacen cuando sentimos dolor, por ejemplo. Este sistema óptico utiliza un núcleo LED, que se puede fabricar ahora con más facilidad gracias a la impresión 3D junto al revestimiento exterior. El núcleo emite ondas de luz y cuanto más se deforma la prótesis de mano, más luz se pierde a través del núcleo. La pérdida de la luz variable, según lo detectado por el fotodiodo, es lo que permite que la prótesis pueda «sentir» su entorno. El grupo utilizó su prótesis optoelectrónica para realizar una variedad de tareas, incluyendo el agarre y el sondeo de forma y textura. La mano era capaz de escanear tres tomates y determinar, por la suavidad, cual era el más maduro. Fuente: Cornell.

- Tiempo de lectura

Seguridad en la Computaci贸n Cu谩ntica

Por Editorial Vodafone Business
Las capacidades de procesado de datos de los ordenadores cuánticos que permiten realizar avances exponenciales en todos los campos de la ciencia, también pueden suponer un reto para los gestores de seguridad informática, al enfrentarse a una potencia de cálculo capaz de hackear cualquier contraseña o algoritmo de seguridad. En este terreno trabaja Nathan Hamlin, director del Math Learning Center en la Universidad del Estado de Washington, quien ha publicado un interesante paper en Open Journal of Discrete Mathematics sobre cómo las matemáticas pueden ayudar a resolver este reto. El autor se basa en un código que escribió para una tesis doctoral —llamado Generalized Knapsack Code— y asegura que sería capaz de “frustrar” a los piratas informáticos del futuro. El documento aclara malentendidos sobre el complejo campo de la criptografía de clave pública y proporciona una base común de entendimiento para los expertos técnicos que tendrán la tarea de diseñar nuevos sistemas de seguridad de Internet para la era de la computación cuántica. «El diseño de sistemas de seguridad para proteger los datos implica expertos de muchos campos diferentes que trabajan con números de manera diferente.» —dijo Hamlin— “Va a haber matemáticos puros y aplicados, programadores e ingenieros entre todos los involucrados en el proceso en algún momento. Para que funcione en la vida real, todas estas personas necesitan tener un lenguaje común para comunicarse de manera que puedan tomar importantes decisiones sobre cómo proteger las transacciones en línea y comunicaciones personales en el futuro «. Los ordenadores cuánticos operan en el nivel subatómico y teóricamente proporcionan capacidad de procesamiento de millones, incluso miles de millones de veces, más rápida que las computadoras basadas en silicio. Un pirata armado con un ordenador cuántico de próxima generación, en teoría, podría descifrar cualquier comunicación por Internet enviada hoy, dijo Hamlin. Con el fin de crear un sistema de seguridad en línea mejor y estar preparados para futuras demandas, los profesor de matemáticas Hamlin y el ya retirado William Webb crearon el Código Generalized Knapsack en 2015 mediante la adaptación de una versión anterior del código con representaciones de números alternativos que van más allá de los estándares binarios y secuencias de base 10 que usan los ordenadores de hoy para operar. Fuente: Universidad del Estado de Washington Proceso de encriptado descrito en el estudio (Imagen: WSU) Los propios requisitos de la computación cuántica obligará a quienes tengan que analizar sus datos o ejecutar algoritmos a cifrar la información. Debido a este requisito, los investigadores de DTU Physics  y la Universidad de Toronto han investigado si un ordenador cuántico puede funcionar igual de bien con señales codificadas y no codificadas. Los resultados indican que la eficacia se mantiene casi sin cambios.El desarrollo de un ordenador cuántico universal, generalmente se considera el objetivo final dentro del área de la física llamada teoría de la información cuántica. Si se logra este objetivo permitirá enorme progreso dentro de una larga lista de campos de estudio en los efectos cuánticos son importantes. Esto aceleraría, por ejemplo, el diseño de nuevos medicamentos o nuevos tipos de materiales para la construcción o la electrónica. Inspirado por la historia del desarrollo de la ordenador clásico, los investigadores esperan que la primera generación de ordenadores cuánticos será grande, caro y difícil de operar y mantener. Por estas razones también se espera que estos dispositivos, al menos al principio, solamente estarán disponibles para las grandes organizaciones y gobiernos. Esto conduce a la idea de computación cuántica delegada , donde un usuario obtiene acceso a un ordenador cuántico centralizada a través de una red, a menudo considerado como una versión cuántica de la Internet. Si el usuario lo desea desea la solicitud enviada a la computadora cuántica debería ser secreta, incluso para el propio ordenador cuántico, que es capaz de cifrarla y descifrarla. La pregunta entonces es si un ordenador cuántico que está trabajando a ciegas, porque la entrada está cifrada, es tan eficiente como cuando se está trabajando en una entrada normal. En un artículo publicado en Nature Communications, Kevin Marshall y otros colaboradores asegura que que no hay una reducción significativa en esta eficiencia. En otras palabras, un quantum ordenador funciona igual de bien con señales codificadas y no codificadas.

- Tiempo de lectura

Comunicaciones bajo el agua m谩s r谩pidas

Por Editorial Vodafone Business
Una nueva tecnología para el envío de ondas acústicas a través del agua podría abrir potencialmente nuevas vías de comunicación de alta velocidad bajo el agua, que sería especialmente útil en actividades como el buceo, la vigilancia de los océanos a distancia, y la exploración de aguas profundas.

Los investigadores en el Lawrence Berkeley National Laboratory (Berkeley Lab) del Departamento de Energía fueron capaces de incluir más canales en una sola frecuencia, incrementando de forma efectiva la cantidad de información capaz de ser transmitida.

Lo demostraron mediante la codificación en forma binaria de las letras que componen la palabra «Berkeley», y transmitir la información a lo largo de una señal acústica que normalmente llevaría menos datos. Ellos describen sus hallazgos en un estudio publicado esta semana en las Actas de la Academia Nacional de Ciencias (PNAS).

«Es comparable al pasar de una carretera secundaria de un solo carril a una autopista de varios carriles,» dijo el autor del estudio Xiang Zhang, científico de la facultad senior de la División de Ciencias de Materiales del Laboratorio Berkeley y profesor de la Universidad de Berkeley. «Este trabajo tiene un enorme potencial en las comunicaciones acústicas de alta velocidad.»

Los datos binarios que representan la palabra «Berkeley» son convertidos por un circuito digital en información codificada en canales independientes con diferente momento angular orbital. El conjunto de transductores envía la información a través de un solo haz acústico con diferentes patrones. Los colores en el frente de onda helicoidal muestran diferentes fases acústicas. (Crédito: Chengzhi Shi / Berkeley Lab y UC Berkeley). Mientras que la actividad humana bajo de la superficie del mar se incrementa, la capacidad de comunicarse bajo el agua no ha avanzado al mismo ritmo, limitada en gran parte por la física. Las microondas son absorbidas rápidamente en agua, por lo que las transmisiones no pueden llegar muy lejos. Las comunicaciones ópticas no son mejores ya que la luz se dispersa por micropartículas bajo el agua cuando se viaja a través de largas distancias. La acústica de baja frecuencia es la opción que le queda a la comunicación de largo alcance bajo el agua. Las aplicaciones de sónar abundan, incluyendo la navegación, la cartografía del fondo marino, la pesca, la topografía petróleo en alta mar, y la detección de buques. Sin embargo, la desventaja con la comunicación acústica, en particular con distancias de 200 metros o más, es que el ancho de banda disponible está limitado a un rango de frecuencia dentro de 20 kilohercios. Una frecuencia tan baja que limita la velocidad de transmisión de datos a decenas de kilobits por segundo, similar a la época de las conexiones a Internet de acceso telefónico y módems de 56 kilobits por segundo. Los investigadores adoptaron la idea de multiplexación, o la combinación de diferentes canales a más de una señal compartida, que es una técnica ampliamente utilizada en las redes de telecomunicaciones e informática. Pero la multiplexación angular orbital es un enfoque que no se había aplicado a la acústica hasta este estudio, según los investigadores. Según se propaga el sonido, el frente de onda acústica forma un patrón helicoidal, o haz de vórtice. Estas ondas cuentan con un “momentum” angular orbital que proporciona un grado espacial de libertad y canales independientes sobre los que los investigadores pudieron codificar datos. A continuación, utilizan algoritmos para decodificar la información de los diferentes canales, porque son independientes unos de otros. Para su experimento se utilizaron ocho canales, por lo que en lugar de enviar sólo 1 bit de datos, pudieron enviar 8 bits al mismo tiempo.En teoría, sin embargo, el número de canales proporcionados por el momento angular orbital puede ser mucho mayor. Los investigadores observaron que aunque el experimento se realizó en el aire, la física de las ondas acústicas es muy similar para el agua y el aire en este rango de frecuencias. Fuente: Berkeley Lab
Artículo

- Tiempo de lectura

Machine Learning para el reconocimiento facial

Por Editorial Vodafone Business
Las aplicaciones de reconocimiento facial forman parte de las tecnologías de Inteligencia Artificial más populares que ya están funcionando a nuestro alrededor. Desde etiquetar a personas en redes sociales a desbloqueo de móviles, y por supuesto medidas de seguridad en aeropuertos o en lugares públicos. En las investigaciones que se llevan a cabo para mejorar su eficiencia y exactitud se emplean modelos que imitan la neurología humana y que hasta ahora no eran suficientemente emulados por las máquinas. Ahora en el MIT están diseñando un sistema de aprendizaje automático entrenado a partir de una batería de imágenes de muestra en el que se añade una particularidad del cerebro humano consistente en tener en cuenta el grado de rotación de una cara, 45 grados desde el centro pero no en dirección izquierda o derecha. La idea de tener en cuenta esta peculiaridad de nuestra mente surgió espontáneamente en el proceso de entrenamiento tras observar el comportamiento de los primates y fue trasladado a la programación de los algoritmos.El profesor Poggio, del MIT, cree que el cerebro produce representaciones de las caras y otros objetos invariables, independientemente de su orientación en el espacio, la distancia en el espectador o la ubicación en el campo visual. Mediante exploraciones de los cerebros de humanos y monos mostraban que la información de los nervios ópticos pasa a través de una serie de localizaciones neuronales que, a cada paso, es menos sensible a la orientación que el anterior. Las neuronas en la primera región respondían sólo a determinadas orientaciones de la cara, mientras que las finales se activaban independientemente de éstas. El nuevo sistema de aprendizaje funciona como una red neuronal que se aproxima a la arquitectura del cerebro humano. Una red de unidades de procesamiento muy simples dispuestas en capas conectadas a nodos de proceso. En un trabajo anterior, el grupo de Poggio había entrenado redes neuronales para producir representaciones invariables por la memorización de un conjunto representativo de orientaciones en sólo un puñado de caras, lo que Poggio llama «plantillas». Cuando a la red se le presenta una nueva cara, medía su diferencia con respecto a estas plantillas. Esta diferencia sería más pequeña para las plantillas cuya orientación, la inclinación, fuera la misma que el de la nueva cara. La diferencia medida entre la nueva cara y las caras almacenadas da a la nueva cara una especie de identificación de la firma.
En los nuevos experimentos, este enfoque produce representaciones invariables: La firma de un rostro resultó ser más o menos la misma sin importar su orientación.
 
Aunque los sistemas de reconocimiento facial automáticos sean cada vez más precisos, aún no han igualado a la capacidad humana de identificar un rostro. No sólo el ángulo de orientación del mismo en una imagen es determinante, sino que el uso de complementos como gafas, sombreros, cambios de peinado o la simple iluminación complican el proceso de identificación digital lejos de lo que se ve en las películas. En general, el sistema proporcionará una lista de candidatos y será una persona quién tome la decisión final, con tasas de error de hasta el 50%.Cuando se trata de reconocer a un desconocido, el entrenamiento del personal de seguridad no mejora la tasa de acierto con respecto al de cualquier persona que intente reconocer un rostro basado en una serie de fotografías. Al igual que las máquinas, es más fácil si se cuenta con una información previa almacenada en nuestra memoria. Entonces, los algoritmos sí que muestran una ventaja en la fiabilidad procesando múltiples datos. En pocas palabras, el reconocimiento facial puede saber quién eres si te conoce previamente, pero las posibilidades de que lo haga viéndote por primera vez se reducen hasta el 50%. Eso sí, esta capacidad de reconocimiento facial y aprendizaje, ya está presente en robots como los diseñados por Tomotaka Takahasi.