Vodafone

Saltar al contenido principal
cabecera nuestra vision

Nuestra Visión

Explora con nosotros el futuro

Artículos Nuestra Visión

- Tiempo de lectura

Tres Casos de Éxito IoT frente al COVID-19

Por Editorial Vodafone Business
De todos es sabido que la digitalización ha sido la tabla de salvación para las empresas y la sociedad durante la pandemia del coronavirus. Desde permitir que la actividad profesional se mantuviera con la adopción masiva del teletrabajo a la explosión definitiva del eCommerce y los medios de pago mobile o vía apps. Pero si una tecnología emergente ha luchado de forma silenciosa contra las dificultades derivadas del COVID-19 ha sido Internet de las Cosas (IoT). Gracias a la sensorización y conectividad de infinidad de dispositivos, se han podido realizar labores de todo tipo: lecturas de contadores, control de aforos o trazabilidad de los envíos, por citar solo algunas.
Artículo

- Tiempo de lectura

Robots en el quirófano y trabajo del equipo de operaciones

Por Editorial Vodafone Business
Un estudio explora cómo los robots en el quirófano y como impactan en el trabajo en equipo de la sala de operaciones. Los investigadores de Cornell analizaron de cerca el impacto de ese cambio en un nuevo documento, “Operando a distancia: cómo un robot quirúrgico teleoperado reconfigura el trabajo en equipo en la sala de operaciones”, presentado en la Conferencia ACM sobre trabajo cooperativo y computación social con soporte informático Del 3 al 7 de noviembre en Jersey City, Nueva Jersey. En la cirugía tradicional, los médicos y las enfermeras se apiñan alrededor de un paciente, pasan los instrumentos, se observan las caras y, a menudo, se tocan físicamente. Durante la cirugía robótica, sin embargo, el robot está en el centro de la habitación. El cirujano está en un rincón, con la cabeza sumergida en una consola. El resto del personal médico está disperso, por lo general, no se pueden ver las caras y están desocupados por largos períodos de tiempo. «El robot influye en los aspectos del trabajo en equipo y tal vez dificulta el trabajo en equipo», dijo la autora principal Hannah RM Pelikan, ex becaria de Cornell en el laboratorio de  Malte Jung , profesora asistente de ciencias de la información y coautora del paper. «Definitivamente tienen que hacer más cosas para superar los desafíos que presenta el robot, y necesitan desarrollar nuevas estrategias». Los investigadores pasaron dos años entrevistando al personal médico y observando cirugías en dos hospitales de EE. UU. Utilizando el Sistema quirúrgico Da Vinci , un robot grande con varios brazos equipados con instrumentos quirúrgicos y una cámara endoscópica. El video grabó más de 50 horas de cirugías realizadas con y sin Da Vinci, el robot quirúrgico más popular del mundo, controlado por el cirujano mediante un joystick y utilizado en 877,000 cirugías en 2017.
 
El Da Vinci ha sido acreditado con mayor precisión, mejor visión y reducción de la carga cognitiva y la fatiga física del cirujano, pero ningún estudio anterior examinó la distancia que crea dentro del equipo quirúrgico.
Los investigadores identificaron dos formas de distancia: cognitiva, con respecto a cómo el equipo colabora y se comunica; y afectivo, que se refiere a los sentimientos de desconexión emocional.
«Al entender que la dinámica social en equipos es realmente importante, me sorprendió la forma en que los ingenieros en ese contexto pensaban en la cirugía simplemente como la tarea mecánica de cortar y unir tejidos» —dijo Jung— «¿Qué sucede si tomas a un miembro crucial del equipo, a los líderes del equipo, y los metes en una caja?» En la cirugía abierta (no robótica), los cirujanos a menudo usaban una sola palabra o señal con la mano para indicar lo que necesitaban, pero en la cirugía robótica, donde la mayoría de los miembros del equipo no se podían ver, era necesario decirlo en voz alta. Los miembros del equipo de cirugía robótica se comunicaron como pilotos de avión, dando instrucciones verbales y confirmándolos verbalmente. «Está presionando, ¿verdad?», Preguntó un cirujano en un momento, y el primer asistente respondió: «Presionando, señor», ambos reconociendo la pregunta e insertando el «señor» para indicar el final de la oración. En la cirugía abierta, los miembros del equipo operativo tendían a estar muy en sintonía con el estado de ánimo y las emociones de los demás, una necesidad cuando se realiza un trabajo tan complejo e intrincado. Pero el robot hizo más difícil medir los sentimientos, dijo Pelikan. «En la sala de operaciones realmente se vigilan mutuamente, realmente notan que si alguien no se siente bien, ven las cosas antes de que usted las diga», dijo Pelikan, quien planea comenzar un estudio de doctorado en la Universidad de Linköping en Suecia en noviembre. «Con el robot eso es más difícil». Los asistentes del cirujano se necesitaban con menos frecuencia en las cirugías robóticas, a veces llevándolos a conversar entre ellos o distraerse ocasionalmente. Esos chats también podrían causar un estrés leve para los cirujanos que escuchan las conversaciones que ocurren sin ellos. Un cirujano le dijo a un entrevistador que se siente «solo» operando en la consola aparte de su equipo.Los equipos tendían a compensar este tipo de distancia afectiva en mayor o menor medida. Durante las cirugías abiertas, los cirujanos generalmente se fueron tan pronto como se completó la operación. Sin embargo, en las cirugías robóticas, los cirujanos a menudo se unían a los demás para lo que los investigadores denominaban un «grupo» después de los procedimientos, charlando, bromeando y, a veces, tocando.
«Ya podíamos comenzar a ver la incipiente generación de nuevos rituales quirúrgicos que se estaban inventando en respuesta a los tipos de desafíos que describimos», dijo  Steven Jackson , profesor asociado de ciencias de la información, quien también es coautor del artículo, junto con Amy. Cheatle, estudiante de doctorado en ciencias y tecnología.

- Tiempo de lectura

Mano robótica inteligente y control del usuario

Por Editorial Vodafone Business
Una mano robótica inteligente para amputados combina el control del usuario y la inteligencia artificial.  Los científicos de la EPFL han probado con éxito la nueva tecnología neuroprotésica que combina el control robótico con el control voluntario de los usuarios, abriendo caminos en el nuevo campo interdisciplinario de control compartido para las tecnologías neuroprotésicas. Los científicos de EPFL están desarrollando nuevos enfoques para mejorar el control de las manos robóticas, en particular para los amputados, que combinan el control individual de los dedos y la automatización para mejorar el agarre y la manipulación. Esta prueba de concepto interdisciplinaria entre neuroingeniería y robótica se probó con éxito en tres amputados y siete sujetos sanos. Los resultados se publicaron en  Nature Machine Intelligence. La tecnología combina dos conceptos de dos campos diferentes. La implementación de ambos juntos nunca se había hecho antes para el control manual robótico, y contribuye al campo emergente de control compartido en neuroprotésica.

Un concepto, de la neuroingeniería, implica descifrar el movimiento intencionado del dedo de la actividad muscular en el muñón del amputado para el control individual del dedo de la mano protésica que nunca antes se había hecho. El otro, de la robótica, permite que la mano robótica ayude a agarrar objetos y mantener contacto con ellos para un agarre robusto. «Cuando sostienes un objeto en la mano y comienza a resbalar, solo tienes un par de milisegundos para reaccionar», explica Aude Billard, quien dirige el Laboratorio de Sistemas y Algoritmos de Aprendizaje de EPFL. “La mano robótica tiene la capacidad de reaccionar en 400 milisegundos. Equipado con sensores de presión a lo largo de los dedos, puede reaccionar y estabilizar el objeto antes de que el cerebro pueda percibir que el objeto se está deslizando. » El algoritmo primero aprende a decodificar la intención del usuario y lo traduce al movimiento de los dedos de la mano protésica. El amputado debe realizar una serie de movimientos de la mano para entrenar el algoritmo que utiliza el aprendizaje automático. Los sensores colocados en el muñón del amputado detectan la actividad muscular, y el algoritmo aprende qué movimientos de las manos corresponden a qué patrones de actividad muscular. Una vez que se comprenden los movimientos de los dedos previstos por el usuario, esta información se puede utilizar para controlar los dedos individuales de la mano protésica. «Debido a que las señales musculares pueden ser ruidosas, necesitamos un algoritmo de aprendizaje automático que extraiga la actividad significativa de esos músculos y los interprete en movimientos», dice Katie Zhuang, primer autor de la publicación. Luego, los científicos diseñaron el algoritmo para que la automatización robótica se active cuando el usuario intenta agarrar un objeto. El algoritmo le dice a la mano protésica que cierre los dedos cuando un objeto está en contacto con sensores en la superficie de la mano protésica. Este agarre automático es una adaptación de un estudio previo para brazos robóticos diseñado para deducir la forma de los objetos y agarrarlos basándose solo en información táctil, sin la ayuda de señales visuales. Quedan muchos desafíos para diseñar el algoritmo antes de que pueda implementarse en una mano protésica disponible comercialmente para amputados. Por ahora, el algoritmo aún se está probando en un robot provisto por una parte externa.

«Nuestro enfoque compartido para controlar las manos robóticas podría usarse en varias aplicaciones neuroprotésicas como las prótesis de mano biónicas y las interfaces cerebro-máquina, aumentando el impacto clínico y la usabilidad de estos dispositivos», dice Silvestro Micera, presidente de la Fundación Bertarelli de EPFL en Neuroingeniería Traslacional y profesor de bioelectrónica en la Scuola Superiore Sant’Anna en Italia. Fuente: EPFL
Artículo

- Tiempo de lectura

Tecnología de asistencia a invidentes: más allá de la realidad virtual

Por Editorial Vodafone Business
Durante la última presentación de la compañía Samsung la foto de todo el público asistente conectado a las gafas de VR se viralizó inmediatamente gracias a la presencia de Mark Zuckerberg en ella. Esa imagen representa la tecnología de consumo de mayor actualidad gracias a la cual, muchos esperan poder ver el mundo virtual como si fuera real. Mientras tanto, aproximadamente 285 millones de personas en todo el mundo (datos OMS) esperan que la tecnología les proporcione unas gafas, o cualquier otro dispositivo, que les permita ver el mundo real de forma virtual. Se trata de personas con distintos niveles de discapacidad visual, desde baja visión a ceguera, y que gracias a los nuevos desarrollos basados en apps o wereables están obteniendo niveles de seguridad e independencia que les permite desenvolverse casi con total normalidad, al igual que ocurre con los deficientes auditivos. Dos de los mayores desafíos para la independencia de las personas invidentes son las dificultades para acceder a material impreso y los factores de estrés asociados a la propia movilidad y desplazamiento. El acceso a los documentos impresos se ha mejorado en gran medida por el desarrollo y la proliferación de las tecnologías de adaptación, tales como programas de lectura de pantalla, software de reconocimiento óptico de caracteres, motores de texto a voz, pantallas electrónicas y braille. Por contraste con, dificultades para acceder a los números de habitación, letreros de las calles, nombres de las tiendas, las líneas de autobús, mapas y otra información impresa relacionada con la navegación sigue siendo un reto importante para el recorrido a ciegas. Por ejemplo, un navegante ciego caminando en un centro comercial es incapaz de acceder al directorio de tiendas o en un aeropuerto de las pantallas electrónicas de los horarios de salida y de llegada. Aunque los sistemas basados ​​en GPS habilitados para el habla se pueden utilizar para obtener acceso a los nombres de las calles y las tiendas cercanas y las señales de tráfico audible puede dar pistas acerca de cuándo es seguro para cruzar la calle, estas tecnologías no están ampliamente disponibles para los navegadores. Por otra parte, la mayoría de las tecnologías de navegación cuestan cientos o miles de euros. Esto hace que sea prohibitivo para la mayoría comprar estos dispositivos sin ayudas. A la hora de diseñar sistemas de asistencia a la navegación, como peatón, de las personas invidentes, hay que tener en cuenta que salvo en aquellas en las que su discapacidad sea sobrevenido por causa de un accidente, glaucoma, etc las indicaciones deben estar basadas en sus circunstancias. Quienes nunca a disfrutado de la visión deben aprender a detectar obstrucciones a su trayectoria de desplazamiento, encontrar bordillos y escaleras, interpretar los patrones de tráfico con el fin de saber cuando el semáforo está en rojo o verde, no virar al cruzar la calle, y un sinfín de tareas. También deben llevar un registro de dónde se encuentran en el entorno y cómo afecta su posición y orientación actual a donde quieren ir. Estas tareas son cognitivamente exigentes y con frecuencia requieren la resolución consciente de problemas a cada momento. En comparación, las personas videntes resolven estos problemas visualmente de una manera más automática, menos cognitivamente exigente. En otras palabras, la navegación basada en visión es más un proceso conceptual, mientras que la navegación a ciegas supone un esfuerzo que requiere el uso de los recursos cognitivos y de atención. La mayoría de las personas videntes nunca han considerado cómo evitan obstáculos, caminar en línea recta, o reconocer puntos de referencia. No es algo conscientemente aprendido; es sólo algo que hacen. El dispositivo ideal sería emplear un mapeo intuitivo que requiera poca o ninguna formación.Existen tres tipos de tecnología empleada en los dispositivos de asistencia a la navegación ciega.
    Los dispositivos basados ​​en sonar pueden operar en la oscuridad, la lluvia y la nieve. Esta versatilidad ofrece una ventaja funcional de estos dispositivos para uso al aire libre. Sin embargo, no son ideales para su uso en lugares muy concurridos o confinados ya que los ecos de sonar se distorsionan, haciendo que la información recibida por el usuario no sea fiable. La tecnología basada en la cámara puede funcionar bien en una amplia gama de condiciones de funcionamiento tanto dentro como fuera, pero estos sistemas puede tener dificultad con la estabilización de imagen en movimiento cuando es utilizado por los peatones, y amplias variaciones en la luminosidad ambiente dentro y entre las escenas. Dispositivos basados ​​en GPS que son bastante precisos en una amplia gama de condiciones atmosféricas, pero la señal es la línea de visión y por lo tanto pueden ser interrumpidos o totalmente oculta en determinados lugares como cuando no funciona en interiores.
 
Antes de la aparición de las Google Glasses, el Dr. Stephen Hicks, ganador del Premio Brian Mercer 2013 de Innovación desarrolló una nueva tecnología que hace uso de la visión residual a las personas no totalmente invidentes mediante la presentación de los objetos cercanos en las lentes de las gafas especialmente diseñadas por su laboratorio.

Precisamente partiendo del aprovechamiento de la funcionalidad de las gafas de Google, la compañía española NeoSenTec ideó una aplicación que permitía una asistencia a la navegación de gran utilidad. Con su versión para smartphones, el proyecto asturiano Lazzus resultó galardonado en la categoría de “Aplicación Mobile for Good”, que premia la aplicación de smartphone que contribuya a la mejora de la calidad de vida, la autonomía personal o la promoción del envejecimiento activo otorgado por la Fundación Vodafone. “Lazzus” está disponible para Android e iOS, ayuda a las personas con discapacidad visual a descubrir lo que se encuentra a su alrededor, generando un campo de visión artificial que transmite información sonora sobre el entorno del usuario y ofrece geolocalización y búsqueda de puntos de interés.
Resultados de 1 a 4