Vodafone

Saltar al contenido principal
cabecera nuestra vision

Nuestra Visión

Explora con nosotros el futuro

Artículos Nuestra Visión

- Tiempo de lectura

Tres Casos de 脡xito IoT frente al COVID-19

Por Editorial Vodafone Business
De todos es sabido que la digitalización ha sido la tabla de salvación para las empresas y la sociedad durante la pandemia del coronavirus. Desde permitir que la actividad profesional se mantuviera con la adopción masiva del teletrabajo a la explosión definitiva del eCommerce y los medios de pago mobile o vía apps. Pero si una tecnología emergente ha luchado de forma silenciosa contra las dificultades derivadas del COVID-19 ha sido Internet de las Cosas (IoT). Gracias a la sensorización y conectividad de infinidad de dispositivos, se han podido realizar labores de todo tipo: lecturas de contadores, control de aforos o trazabilidad de los envíos, por citar solo algunas.

- Tiempo de lectura

Sensores neuronales inal谩mbricos diminutos

Por Editorial Vodafone Business
Los sensores neuronales del tamaño de una mota de polvo, traducción de Neural Dust Sensor, también llamados por tanto polvo neural o mota de polvo neuronal es un término usado para referirse a dispositivos del tamaño de un milímetro operados como sensores nerviosos con alimentación inalámbrica. Estos sensores se pueden usar para estudiar, monitorear o controlar los nervios y los músculos y para controlar de forma remota la actividad neuronal. En la práctica, un tratamiento médico podría introducir miles de dispositivos de polvo neuronal en el cerebro humano. El término se deriva del Smart Dust, ”polvo inteligente», ya que los sensores utilizados como polvo neuronal también pueden definirse por este concepto.En 2016, los ingenieros de la Universidad de California, Berkeley, demostraron los primeros sensores de polvo neuronal ultrasónicos implantados, acercándose el día en que un dispositivo parecido a Fitbit podría monitorear los nervios internos, los músculos u órganos en tiempo real. Ahora, los ingenieros de Berkeley han llevado el polvo neuronal un paso adelante al construir el estimulador de nervio inalámbrico más pequeño y más eficiente hasta la fecha.
 
El dispositivo, llamado StimDust, abreviatura de estimular el polvo neuronal, agrega productos electrónicos más sofisticados al polvo neuronal sin sacrificar el pequeño tamaño o la seguridad de la tecnología, ampliando enormemente la gama de aplicaciones del polvo neuronal. El objetivo de los investigadores es hacer que StimDust se implante en el cuerpo a través de procedimientos mínimamente invasivos para controlar y tratar la enfermedad en un enfoque específico del paciente en tiempo real.StimDust tiene solo 6.5 milímetros cúbicos de volumen y se alimenta de forma inalámbrica por ultrasonido, que luego el dispositivo utiliza para potenciar la estimulación nerviosa con una eficiencia del 82 por ciento. «StimDust es el estimulador de tejidos profundos más pequeño que conocemos capaz de estimular a casi todos los objetivos terapéuticos principales en el sistema nervioso periférico», dijo Rikky Muller, codirector del trabajo y profesor asistente de ingeniería eléctrica y computadora. ciencias en Berkeley. «Este dispositivo representa nuestra visión de tener dispositivos pequeños que se pueden implantar de manera mínimamente invasiva para modular o estimular el sistema nervioso periférico, que ha demostrado ser eficaz en el tratamiento de varias enfermedades». La creación de polvo neuronal en Berkeley, dirigido por Maharbiz y José Carmena, profesor de ingeniería eléctrica y ciencias informáticas en Berkeley y miembro del Instituto de Neurociencia Helen Wills, ha abierto la puerta para la comunicación inalámbrica con el cerebro y el sistema nervioso periférico a través de minúsculas dispositivos implantables dentro del cuerpo que son alimentados por ultrasonido. Los equipos de ingeniería de todo el mundo están utilizando la plataforma de polvo neuronal para construir dispositivos que pueden cargarse de forma inalámbrica por ultrasonido. A Maharbiz se le ocurrió la idea de usar ultrasonido para alimentar y comunicarse con implantes muy pequeños. Junto con los profesores de Berkeley Elad Alon y Jan Rabaey, el grupo desarrolló el marco técnico para demostrar el poder de escalamiento del ultrasonido para dispositivos implantables. StimDust tiene un orden de magnitud más pequeño que cualquier dispositivo activo con capacidades similares que el equipo de investigación conozca. Los componentes de StimDust incluyen un solo piezocrystal, que es la antena del sistema, un circuito integrado de 1 milímetro y un condensador de almacenamiento de carga. StimDust tiene electrodos en la parte inferior, que hacen contacto con un nervio a través de un manguito que envuelve el nervio. Además del dispositivo, el equipo de Muller diseñó un protocolo inalámbrico personalizado que les brinda una amplia gama de programabilidad al tiempo que mantiene la eficiencia. Todo el dispositivo funciona con solo 4 microvatios y tiene una masa de 10 miligramos. Un esquema que detalla los componentes de StimDust, que incluye un solo piezocrystal, que es la antena del sistema, un circuito integrado de 1 milímetro y un condensador de almacenamiento de carga (Imagen cortesía de Rikky Muller)

- Tiempo de lectura

Tratamiento del Autismo con robots

Por Editorial Vodafone Business
Puede ser una de las caras más humanas de la robótica. El empleo de técnicas terapéuticas para el autismo con robots está siendo probado por distintas universidades y podrían ofrecer posibilidades que las personas no son capaces. El proyecto más avanzado se está llevando a cabo en la Universidad de Portsmouth. El denominado DREAM  (Development of Robot-Enhanced therapy for children with AutisM) pretende desarrollar robots que pueden funcionar autónomamente y ayudar al terapeuta para mejorar las habilidades de la interacción social del niño, tales como la atención común o la imitación. Se ha comprobado que las terapias asistidas por robots (RAT) son prometedoras como potenciales herramientas terapéuticas y de evaluación, ya que la investigación ha demostrado que los niños con un trastorno del espectro autista se involucran más fácilmente con los robots que con los humanos, ya que los robots son simples y predecibles. Sin embargo, los robots sociales actuales son simplemente controlados a distancia por los terapeutas y como las terapias estándar, todavía requieren mucho tiempo, energía y recursos humanos. El proyecto DREAM tiene como objetivo desarrollar un robot autónomo que minimice la intervención del terapeuta para que puedan centrarse más en el niño y mejorar el resultado de la terapia. El robot DREAM también funcionará como una herramienta de diagnóstico recolectando datos clínicos durante la terapia. La tarea principal del grupo de investigación de la Universidad de Portsmouth es capturar y analizar datos sensoriales de los niños – gestos de movimiento, mirada, expresiones faciales , sonido y voz – y hacer que el robot entienda lo que el niño está haciendo para poder tener una mejor Interacción. El equipo tiene una experiencia sustancial en la fusión de datos multisensoriales, especialmente sensores y analíticos para sistemas de múltiples cámaras. Ellos han desarrollado un ambiente inteligente multi-cámara, que consiste en un robot NAO, cámaras Microsoft Kinect y cámaras de alta resolución que rastrea y mide los movimientos del niño y las expresiones faciales y las interacciones con el robot.
Fuente: UoP News Investigadores de la Universidad Miguel Hernández (UMH) y AISOY Robotics están colaborando para ampliar el potencial de su asistente robot para el tratamiento de niños con diagnóstico de trastorno del espectro autista (TEA) La terapia actual en la Clínica Universitaria para niños diagnosticados en el espectro del autismo ya incorpora el robot emocional AISOY1 como ayudante del terapeuta. Los investigadores de este equipo multidisciplinario combinarán sus conocimientos de terapia conductual y robótica para idear nuevas formas de usar este robot en sesiones de terapia para traer beneficios adicionales. La terapia actual en la Clínica Universitaria para niños diagnosticados en el espectro del autismo ya incorpora el robot emocional AISOY1 como ayudante del terapeuta. Los investigadores de este equipo multidisciplinario combinarán sus conocimientos de terapia conductual y robótica para idear nuevas formas de usar este robot en sesiones de terapia para traer beneficios adicionales. Un cuerpo de tareas interactivas de tres vías entre el niño, su terapeuta y el robot será diseñado y probado inicialmente en pacientes ambulatorios de ASD jóvenes. La idea es que a través de estas interacciones el niño mejorará sus habilidades cognitivas, emocionales y sociales (comunicación). Por ejemplo, el robot «asiste» al terapeuta expresando emociones que el niño debe identificar y proponer juegos que apuntan a diferentes habilidades. Se espera que el niño forme vínculos emocionales con el robot, y que esta y la interacción extra que trae a las sesiones mejorará la adherencia terapéutica.

- Tiempo de lectura

Mejora de Salud y Calidad de Vida con IoT

Por Editorial Vodafone Business
La atención médica y el cuidado de la salud representan una de las áreas de aplicación más atractivas para la IoT. Internet de las Cosas tiene el potencial de dar lugar a muchas aplicaciones médicas tales como la monitorización remota de la salud, programas de acondicionamiento físico, enfermedades crónicas o atención de la tercera edad. El cumplimiento del tratamiento y la medicación en casa vigilado por profesionales de la salud es otra aplicación potencial importante. Por lo tanto, los sensores y dispositivos de diagnóstico y de imágenes médicas pueden ser vistos como dispositivos inteligentes u objetos que constituyen una parte fundamental de IoT. Se espera que los servicios de salud basados en Internet de las Cosas puedan reducir costes, aumentar la calidad de vida, y mejorar la experiencia del usuario. Desde la perspectiva de los proveedores de salud, IoT tiene el potencial de reducir el tiempo de inactividad del dispositivo a través de la provisión a distancia. Además, la IO puede identificar correctamente los tiempos óptimos para la reposición de suministros en dispositivos para su funcionamiento correcto y continuo. Además, prevé la programación eficaz de los recursos limitados, garantizando su mejor uso y servicio de más pacientes. Otros usos prometedores de Internet de las Cosas en el terreno de la Salud interesan al tratamiento de enfermedades crónicas, el diagnóstico precoz, el seguimiento en tiempo real, y las emergencias médicas. Incluso el tratamiento del Big Data generado puede ayudar a la prevención y la investigación. La tecnología M2M o Internet de las Cosas convierte cualquier objeto en un dispositivo capaz de aportar soluciones. Por ejemplo, se plantean envases farmacéuticos inteligentes (iMedPack) que no son más que un dispositivo IoT que gestiona el problema del mal uso de medicamentos, garantizando así el cumplimiento farmacéutico. La caja de medicinas inteligente (iMedBox) se considera así mismo una nexo con una variedad de sensores diferentes e interfaces de los múltiples estándares inalámbricos necesarios. Todos ellos, conectados a la nube de salud-IO, una red heterogénea (HetNet) que permitirá el diagnóstico clínico y otros análisis. El rol de todas las actividades y servicios médicos atendidos por personas es un factor fundamental en el diseño de soluciones IoT médicas. Es necesario tener en cuenta todo el proceso: La prevención o diagnosis, el tratamiento, y el procesamiento posterior de la información. La adecuación de estos servicios a la nube y la interconexión entre todos ellos será de vital importancia.

- Tiempo de lectura

Robots de biodise帽o inspirados en animales

Por Editorial Vodafone Business
La imitación de organismos biológicos para el diseño de robots y otras máquinas permite solucionar problemas propios de las herramientas artificiales con materiales biocompatibles o estructuras animales. Tal es el caso de un robot semejante a las medusas, fabricado por hidrogeles de polímeros compuestos en su mayoría por agua, fabricados por el MIT. Su estructura a base de gel se mueve cuando se bombea agua dentro y fuera del mismo. Con este proceso, pueden realizar tareas como el golpeo o captura de objetos.
Cada robot de hidrogel está formado por un conjunto de estructuras similares a músculos conectados entre sí por tubos que inflan o vacían de agua sus cavidades. Esto permite a los robots estirarse o adoptar formas complejas.
Entre sus ventajas, la más destacable por su posible aplicación médica, es el uso de estos robots de materiales amigables para los órganos, en operaciones o tareas en las que haya que manipular órganos internos con mayor suavidad, ofreciendo un tacto similar a unas manos. Hasta ahora existían experimentos previos con materiales de silicona, que son menos biocompatibles que los hidrogeles, compuestos básicamente de agua. Para aplicar sus materiales de hidrogel blando a la robótica, los investigadores se fijaron primero en el mundo animal. Se concentraron en particular en leptocéfalos, o anguilas diminutas transparentes. «Parece que trataron de evolucionar a una forma transparente como una táctica de camuflaje eficiente” explican los científicios “Y queríamos alcanzar un nivel similar de transparencia, fuerza y velocidad.» De hecho, uno de los primeros experimentos que realizaron una vez conseguida la estructura con impresión 3D, fue sumergirla en un tanque de agua con peces y capturarlos con ella. Midieron las propiedades acústicas y ópticas de los robots de hidrogel, y se encontraron que eran casi iguales a las del agua . «El robot es casi transparente, muy difícil de ver» —dice el profesor Xuanhe Zhao, uno de los investigadores— “Es suave y no daña a los peces. Una mano robótica con fuerza probablemente los aplastaría.” Fuente: MIT Otros animales como los murciélagos también han inspirado a los científicos para desarrollar robots más eficaces en tareas como el vuelo. Investigadores de la Universidad de Illinois han creado un robot autónomo de murciélago llamado Bat Bot (B2) con suaves alas articuladas que pueden imitar los mecanismos clave del vuelo de los murciélagos biológicos. Pesa sólo 93 gramos y posee ventajas frente a drones cuatrimotores. Los murciélagos tienen más de 40 articulaciones activas y pasivas que han sido reducidas a 9 (5 activass y 4 pasivas) en las articulaciones del robot B2. Las frecuencias de aleteo de un murciélago robot son más bajas (7-10 Hz) que las de un cuadrotor (100-300 Hz). Además son inherentemente seguros porque sus alas están fabricadas principalmente con materiales flexibles y son capaces de chocar unos con otros, o con obstáculos en su entorno, con poco o ningún daño.
El diseño propuesto por el equipo de la Universidad de Illinois, también aporta mayor eficiencia energética, gracias a que la flexibilidad del ala amplifica el movimiento y requiere menos consumo.
«Cuando un murciélago bate sus alas, es como una hoja de goma» —explica el profesor Hutchinson, de la Facultad de Ingeniería Eléctrica e Informática en Illinois— «Se llena con el aire y se deforma. Y luego, al final de su movimiento de carrera descendente, el ala empuja el aire hacia fuera cuando vuelve a su sitio. Puede obtener esta gran amplificación de la energía que se produce tan sólo por el hecho de que están utilizando membranas flexibles dentro de la propia ala «. fuente: Illinois.edu

- Tiempo de lectura

La rob贸tica al servicio de la m煤sica

Por Editorial Vodafone Business
“El Batería se convierte, en esencia, en un Cyborg”. Con esta frase del profesor Gil Weinberg del Instituto de Tecnología de de Georgia nos adentramos en el mundo de la robótica, las prótesis y nos acercamos, un poco más, a la inteligencia artificial.
La pérdida de cualquier miembro puede ser un trauma pero la robótica, y sus avances, hacen que la recuperación de la actividad sea un punto de apoyo. En este caso, en este instituto y, sobre todo, el profesor Weinberg no paran de construir elementos que ayuden a mejorar las funcionalidades de los bateristas. Una prótesis robótica para un percusionista que había perdido un brazo fue el detonante para crear una tercera “extremidad” que pudiera tocar la batería junto con el músico.La prótesis en cuestión consta de dos baquetas, una que maneja el músico y la otra el robot que puede llegar a tomar sus propias decisiones. Gracias a la electromiografía (EMG), la prótesis recoge los impulsos del bíceps y se puede controlar el motor para poder modificar el nivel de presión y la velocidad con lo que se mueve. La segunda baqueta, que es autónoma, es controlada por un motor propio y para tocar usa un micrófono y un acelerómetro, como los smartphones, para percibir el ritmo con el que está tocando el músico y el resto de la banda. De esta manera, esa baqueta tiene “vida propia”, ya que puede generar gracias a un algoritmo un ritmo complementario al principal. [youtube]https://youtu.be/io-jtlPv7y4[/youtube] A raíz de esta primera prótesis, comenzaron a desarrollar un brazo robótico portátil que permite tocar la batería con tres brazos, ya que se coloca en el hombro del baterista y toca a la vez que él. Este brazo con la misma tecnología que el anterior (micrófono y acelerómetro) permite saber dónde se encuentra la batería y sus instrumentos. De esta manera, los motores que incluye el brazo pueden controlar la superficie donde tocar y moverse de forma natural e intuitiva como si de un brazo se tratase. Así, si el músico toca lentamente, el brazo robótico lo hará también y si cambia de ritmo, se acompasa de forma inmediata. “La máquina aprende cómo se mueve el cuerpo y puede aumentar y complementar su actividad, se convierte en parte de uno mismo.» Aseguran sus creadores. Y ahí no queda el desarrollo de este instituto porque quieren ir más allá. Ahora quieren vincular los movimientos del brazo con la actividad cerebral. Ya están experimentando con una diadema con electroencefalografía (EEG) —exploración neurofisiológica que se basa en el registro de la actividad bioeléctrica cerebral— que pueda detectar los patrones cerebrales que permitan al brazo robótico reaccionar cuando el batería piense en cambiar de tempo o de instrumento.
Según Weinberg, en el instituto también ven otras aplicaciones para la robótica y la inteligencia artificial: «Imagínense si los médicos pudieran usar un tercer brazo para sujetar herramientas, equipos o incluso participar en cirugías. Los técnicos podrían utilizar una mano extra para ayudar con las reparaciones y experimentos «. [youtube]https://youtu.be/fKryPingtww[/youtube] Estos desarrollos que integran la robótica con los humanos tienen como origen las investigaciones que el Center for Music Technology del citado Instituto tiene entre sus actividades, como el Grupo Robotic Musicianship que  tiene como objetivo facilitar las interacciones musicales significativas entre humanos y máquinas, lo que lleva a nuevas experiencias musicales y sus resultados. En su investigación combinan métodos de modelización computacional para la percepción, la interacción y la improvisación, con nuevos enfoques para la generación de respuestas acústicas de maneras físicas y visuales. La motivación de este trabajo se basa en la hipótesis de que la colaboración en tiempo real entre intérpretes humanos y robóticos puede sacar provecho de la combinación de sus fortalezas únicas para producir música nueva y convincente. Su objetivo es combinar cualidades humanas, como la expresión musical y las emociones, con rasgos robóticos, como el procesamiento de gran alcance, la capacidad de realizar cálculos matemáticos sofisticados, memoria sólida a largo plazo, y la capacidad de reproducir con precisión sin la práctica. [youtube]https://youtu.be/gm9R05PMHDM[/youtube] Fuente: GTCMT.

- Tiempo de lectura

Aspectos positivos y negativos de la VR en la salud

Por Editorial Vodafone Business
El uso generalizado de dispositivos de Realidad Virtual que se espera alcanzar con los nuevos smartphones VR o las gafas especiales diseñadas para otros equipos como consolas de juegos o equipos profesionales de todo tipo propios de la Industria 4.0, conlleva a aparición de consecuencias no conocidas anteriormente en nuestra salud. Como la Virtual Reallity Sickness, nombre con el que se conoce un trastorno con síntomas similares a la enfermedad del movimiento como mareos, náuseas o pérdida de orientación sensorial por aturdimiento. Pero estas consecuencias pueden reducirse significativamente según un método desarrollado por dos profesores de Columbia que puede ser aplicado a los dispositivos domésticos. Se trataría de cambiar el campo de visión del usuario con respecto al movimiento percibido, gracias a los cual los participantes en un estudio experimentaron claras mejoras, sin disminuir la sensación inmersiva del entorno virtual y sin que fueran conscientes del procedimiento empleado. El Mal de la Realidad Virtual se produce cuando las señales que proporcionan nuestros sentidos del movimiento entran en conflicto con lo que vemos, entrando en desacuerdo con el sistema vestibular de nuestro oído interno, responsables del equilibrio y la orientación espacial. Disminuir el campo de visión del sujeto, reduce este complejo sensorial, pero hasta ahora también suponía una disminución del efecto virtual. Mediante un software dinámico, se oscurece parcialmente la visión de cada ojo suavemente hasta determinar qué nivel necesita cada usuario. [youtube]https://youtu.be/lHzCmfuJYa4[/youtube] La realidad virtual también tiene su lado positivo en temas de salud con aplicaciones como la empleada por la profesora de Terapia Física de la Facultad de Ciencias de la Salud de Bouve. Gracias a su empleo con pacientes, conbinando ejercicios fisioterapéuticos con videojuegos, la hace más motivadora y gratificante, especialmente para los niños con alteraciones de movimiento como los que sufren parálisis cerebral. El laboratorio de rehabilitación de la doctora Levac cuenta con pantallas iluminadas en techo y suelo con mundos virtuales, laberintos y tareas a realizar. A través del juego, se desafía al paciente para motivarle, sin que sea tan difícil que se sientan frustrados si el nivel de exigencia es demasiado elevado. Complementariamente, los científicos utilizan sensores integrados en los equipos VR, como acelerómetros, para medir el grado de esfuerzo, nivel de movimiento y gasto energético. Los ejercicios de movimientos finos también tienen cabida con juegos de apertura de cajones virtuales y actividades similares que ponen a prueba la respuesta de todo el aparato locomotor. [youtube]https://youtu.be/nUllnJeZCFE[/youtube]

- Tiempo de lectura

Intefaces cerebrales y dispositivos controlados por la mente

Por Editorial Vodafone Business
Controlar un ordenador o cualquier otro dispositivo con sólo el pensamiento ya es posible, como nos explica Tan Le, cofundadora y CEO de la compañía Emotiv. La posibilidad de convertir los pensamientos en órdenes supone en nuestro entorno digital poder gestionar casi cualquier tipo de objeto que cuente con la tecnología y conectividad adecuada, pues de la misma manera que en Internet de las Cosas (IoT) las máquinas se comunican entre sí, la mente humana puede conectarse a ellas sin necesidad de contacto físico. Durante años, se ha trabajado en desarrollar una tecnología de control semántico orientada a que los dispositivos electrónicos obedecieran órdenes escritas o habladas, sin embargo, el futuro parece estar mucho más cerca de interfaces cerebrales que entre otras cosas superan directamente las barreras de idiomas o, lo que es mucho más importante, de movilidad reducida del usuario. La solución creada por Emotiv consta de una diadema encefalograma de cinco canales que recoge señales del los lóbulos central, y temporal. Los centrales son los responsables de la toma de decisiones ejecutivas, atención y planificación y los temporales sobre todo procesan la información auditiva, pero también la memoria y del procesado del lenguaje. Con los sensores de la parte trasera de la cabeza se detectan las señales de los lóbulos parietal y occipital que se ocupan del procesado sensorial y la visión. Todos juntos cubren las áreas del cerebro importantes y registran sus señales eléctricas naturales. Mediante algoritmos, la máquina aprende a distinguir las distintas señales y asociar los patrones con diferentes pensamientos o ideas. Cuando realizamos un determinado movimiento, nuestro cerebro está enviando esas órdenes a nuestro cuerpo y al ser detectadas por el dispositivo, el algoritmo aprende de nuestras señales y sabe cómo convertirlas directamente en órdenes para un determinado mecanismo la siguiente vez sin necesidad de que hagamos el movimiento real. Más allá de las decisiones, los sentimientos.
La capacidad de medir el funcionamiento cerebral en nuestros comportamientos permite también reconocer emociones. Esto, que normalmente se asocia a su utilización como técnicas de neuromarketing, tiene una vertiente mucho más amable con su aplicación a los videojuegos y la realidad virtual. Sabiendo cómo te sientes ante determinadas situaciones o estímulos, el entretenimiento puede interactuar según tus gustos y sensaciones, cambiando el contenido personalizadamente. Las aplicaciones médicas también tienen su oportunidad gracias a esta tecnología para solucionar problemas de sueño, seguimientos de estados de coma y prevención de diversas patologías con la ventaja de su precio asequible, muy inferior a los equipos clínicos y hospitalarios originales de donde parte esta tecnología. Complementados con sistemas M2M que conecten directamente con equipos remotos, el límite de este avance parece estar sólo en nuestra imaginación. Con solo una mirada o menos.
Hasta ahora, la interface más extendida que permitía la comunicación entre máquinas y personas sin movilidad o posibilidades físicas, se basaba en un sistema de seguimiento visual muy empleado por enfermos de parálisis, como el empleado por el famoso físico Stephen Hawking formado por un sensor infrarrojo instalado en sus gafas que detecta los movimientos de la mejilla que le permite seleccionar los caracteres de una pantalla. Un software predictivo similar al de los teléfonos móviles completa las frases aprendiendo de su forma de expresarse y un sintetizador de voz lo convierte en sonidos. Curiosamente, el físico ha renunciado expresamente a cambiar el característico tono metálico propio de la ciencia ficción primitiva al considerarlo su seña de identidad. Recientemente, anunció que gracias a la colaboración de Intel, habían logrado una versión mejorada que ofrecería en código abierto para que sea distribuido gratuitamente. El software usado hasta ahora, llamado EX Keys, permitía también a Hawking controlar el ratón windows y manejar otras aplicaciones en su ordenador. «Stephen Hawking in Cambridge» de Doug Wheller (CC) La posibilidad de convertir nuestras ondas cerebrales en órdenes complejas que puedan ser ejecutadas por máquinas no tiene límites en sus aplicaciones. Eduardo Miranda, un compositor que quedó impactado al conocer a un músico que había perdido la movilidad, a un sorprendió al mundo con un ingenio capaz de hacer música gracias a un casco con sensores conectados a un ordenador. Aunque lo que diferencia su proyecto de otros, es el factor humano. Probando uno de los prototipos, el personal sanitario le explicó que los pacientes lo que de verdad querían era interactuar con otras personas, no con máquinas. Gracias a eso, evolucionó hacia un sistema en el que mientras un músico genera su composición, otro es capaz de interpretarla, como él mismo puso en practica: «Mi última composición es para un cuarteto de cuerda en el que interactúan ocho personas. Cuatro de ellas generan la música y las otras la interpretan según va siendo generada siguiendo la partitura en un monitor» afirma para CNN. El inconveniente o limitación en estas soluciones era que incluso para manejar esas interfaces, hace falta un mínimo de movilidad y sobre todo, visión. Gracias a la tecnología liderada por Tan Le, se elimina un nuevo obstáculo. Puedes saber más sobre estas interfaces en la entrevista realizada para Vodafone One publicada en El País. [youtube]https://youtu.be/O9nxjS2ypcE[/youtube]

- Tiempo de lectura

Mano rob贸tica inteligente y control del usuario

Por Editorial Vodafone Business
Una mano robótica inteligente para amputados combina el control del usuario y la inteligencia artificial.  Los científicos de la EPFL han probado con éxito la nueva tecnología neuroprotésica que combina el control robótico con el control voluntario de los usuarios, abriendo caminos en el nuevo campo interdisciplinario de control compartido para las tecnologías neuroprotésicas. Los científicos de EPFL están desarrollando nuevos enfoques para mejorar el control de las manos robóticas, en particular para los amputados, que combinan el control individual de los dedos y la automatización para mejorar el agarre y la manipulación. Esta prueba de concepto interdisciplinaria entre neuroingeniería y robótica se probó con éxito en tres amputados y siete sujetos sanos. Los resultados se publicaron en  Nature Machine Intelligence. La tecnología combina dos conceptos de dos campos diferentes. La implementación de ambos juntos nunca se había hecho antes para el control manual robótico, y contribuye al campo emergente de control compartido en neuroprotésica.

Un concepto, de la neuroingeniería, implica descifrar el movimiento intencionado del dedo de la actividad muscular en el muñón del amputado para el control individual del dedo de la mano protésica que nunca antes se había hecho. El otro, de la robótica, permite que la mano robótica ayude a agarrar objetos y mantener contacto con ellos para un agarre robusto. «Cuando sostienes un objeto en la mano y comienza a resbalar, solo tienes un par de milisegundos para reaccionar», explica Aude Billard, quien dirige el Laboratorio de Sistemas y Algoritmos de Aprendizaje de EPFL. “La mano robótica tiene la capacidad de reaccionar en 400 milisegundos. Equipado con sensores de presión a lo largo de los dedos, puede reaccionar y estabilizar el objeto antes de que el cerebro pueda percibir que el objeto se está deslizando. » El algoritmo primero aprende a decodificar la intención del usuario y lo traduce al movimiento de los dedos de la mano protésica. El amputado debe realizar una serie de movimientos de la mano para entrenar el algoritmo que utiliza el aprendizaje automático. Los sensores colocados en el muñón del amputado detectan la actividad muscular, y el algoritmo aprende qué movimientos de las manos corresponden a qué patrones de actividad muscular. Una vez que se comprenden los movimientos de los dedos previstos por el usuario, esta información se puede utilizar para controlar los dedos individuales de la mano protésica. «Debido a que las señales musculares pueden ser ruidosas, necesitamos un algoritmo de aprendizaje automático que extraiga la actividad significativa de esos músculos y los interprete en movimientos», dice Katie Zhuang, primer autor de la publicación. Luego, los científicos diseñaron el algoritmo para que la automatización robótica se active cuando el usuario intenta agarrar un objeto. El algoritmo le dice a la mano protésica que cierre los dedos cuando un objeto está en contacto con sensores en la superficie de la mano protésica. Este agarre automático es una adaptación de un estudio previo para brazos robóticos diseñado para deducir la forma de los objetos y agarrarlos basándose solo en información táctil, sin la ayuda de señales visuales. Quedan muchos desafíos para diseñar el algoritmo antes de que pueda implementarse en una mano protésica disponible comercialmente para amputados. Por ahora, el algoritmo aún se está probando en un robot provisto por una parte externa.

«Nuestro enfoque compartido para controlar las manos robóticas podría usarse en varias aplicaciones neuroprotésicas como las prótesis de mano biónicas y las interfaces cerebro-máquina, aumentando el impacto clínico y la usabilidad de estos dispositivos», dice Silvestro Micera, presidente de la Fundación Bertarelli de EPFL en Neuroingeniería Traslacional y profesor de bioelectrónica en la Scuola Superiore Sant’Anna en Italia. Fuente: EPFL
Artículo

- Tiempo de lectura

Robots para garantizar la seguridad en trabajos peligrosos

Por Editorial Vodafone Business
La cuarta revolución industrial, posible gracias a la robótica y la inteligencia artificial, liberará a los trabajadores de aquellas tareas especialmente peligrosas para la salud y la integridad física. Aplicaciones y dispositivos M2M forman parte de las nuevas herramientas de trabajo imprescindibles en algunos entornos. Laboratorios de todo el mundo trabajan en desarrollos de interfaces de hardware, software, sensores y maquinas capaces de crear el robot perfecto para estas tareas. El proyecto DARPA promovido por el gobierno de los Estados Unidos incentiva esta carrera robótica con el objetivo de dar respuesta a desastres naturales o artificiales. Las tecnologías resultantes de la DRC —DARPA Robotics Challenge— transformarán el campo de la robótica y catapultarán hacia adelante el desarrollo de robots que funcionen y ofrezcan la autonomía suficiente para trabajar en solitario en tareas con las peligrosas condiciones comunes en las zonas de desastre o en colaboración con los humanos. Los requerimientos para este tipo de robots, son: La movilidad y destreza para maniobrar en los ambientes degradados típicos de las zonas de desastre. Capacidad de manipular y utilizar un surtido diverso de herramientas diseñadas para los seres humanos. Capacidad para ser manejado por los seres humanos que han tenido poca o ninguna formación robótica. Autonomía parcial en el nivel de tarea de toma de decisiones sobre la base de los comandos del operador y entradas de los sensores. La fase final del campeonato de la DRC desafió a los participantes y sus robots a completar ocho tareas relevantes para la respuesta a desastres, entre ellos conducir solo, caminar entre los escombros, encender interruptores, girar válvulas de rueda y subir escaleras. Paralelamente, DARPA patrocina el concurso de Robots4Us, que pide a los estudiantes de la escuela secundaria de Estados Unidos preparar vídeos de 2 a 3 minutos que describen su visión de las funciones que les gustaría ver a los robots juegan en la sociedad futura.
 
Mientras las tareas peligrosas no puedan ser realizadas por robots, existen muchas situaciones en las que un trabajador puede sufrir un accidente y necesitar ayuda urgente estando solo. Pensemos en operarios de instalaciones remotas, técnicos de mantenimiento y reparación, médicos de urgencia y otras ocupaciones en las que los conocidos como “Lone Workers”  —Trabajador Solitario— son vulnerables. Para ellos, existen soluciones M2M que les permiten estar en contacto con un sistema centralizado de protección gestionado de forma remota, que, cuando se activa, pone inmediatamente personal laboral en contacto con un servicio de asistencia de emergencia. Los operadores del centro de llamadas de respuesta de alarma están especialmente entrenados y capacitados para tomar las medidas discretas para ayudar al usuario.
El dispositivo empleado por la empresa británica SitexOrbis contiene un botón de pánico que utiliza una amplia gama de tecnologías para localizar con precisión y rapidez el usuario.
Una vez que se activa la alerta roja, el dispositivo se conecta a los operadores dedicados que trabajan 24/7 que va a escuchar la llamada, evaluar la situación, localizar el trabajador y coordinar una respuesta adecuada – convocar a los servicios de emergencia si es necesario.  También da acceso las 24 horas a las funciones de seguimiento adicionales, con características de mapeo que incluyen la última ubicación conocida, actualizaciones de posición continua y controles de seguridad automatizadas. Dos niveles de alerta están disponibles, ámbar y rojo. Cuando se activa el ámbar las llamadas comenzarán a grabarse después de dos segundos. La activación de una alerta roja da la alarma y permite a un operador del centro de respuesta escuchar la situación en vivo. Cualquier alerta pre-grabada se pueden escuchar al mismo tiempo y dar al equipo un cuadro completo de la situación. La ubicación del usuario se comprueba mediante GPS y se inicia la respuesta apropiada. En ambos casos las llamadas se registran inmediatamente y pueden ser utilizados como prueba en los tribunales. Herramientas de información, gestión de usuario basada en web y la presentación de informes en tiempo real ayudan a analizar el riesgo de manera más rápida y eficaz, lo que le da un mayor grado de control.
Artículo

- Tiempo de lectura

Tecnolog铆a de asistencia a invidentes: m谩s all谩 de la realidad virtual

Por Editorial Vodafone Business
Durante la última presentación de la compañía Samsung la foto de todo el público asistente conectado a las gafas de VR se viralizó inmediatamente gracias a la presencia de Mark Zuckerberg en ella. Esa imagen representa la tecnología de consumo de mayor actualidad gracias a la cual, muchos esperan poder ver el mundo virtual como si fuera real. Mientras tanto, aproximadamente 285 millones de personas en todo el mundo (datos OMS) esperan que la tecnología les proporcione unas gafas, o cualquier otro dispositivo, que les permita ver el mundo real de forma virtual. Se trata de personas con distintos niveles de discapacidad visual, desde baja visión a ceguera, y que gracias a los nuevos desarrollos basados en apps o wereables están obteniendo niveles de seguridad e independencia que les permite desenvolverse casi con total normalidad, al igual que ocurre con los deficientes auditivos. Dos de los mayores desafíos para la independencia de las personas invidentes son las dificultades para acceder a material impreso y los factores de estrés asociados a la propia movilidad y desplazamiento. El acceso a los documentos impresos se ha mejorado en gran medida por el desarrollo y la proliferación de las tecnologías de adaptación, tales como programas de lectura de pantalla, software de reconocimiento óptico de caracteres, motores de texto a voz, pantallas electrónicas y braille. Por contraste con, dificultades para acceder a los números de habitación, letreros de las calles, nombres de las tiendas, las líneas de autobús, mapas y otra información impresa relacionada con la navegación sigue siendo un reto importante para el recorrido a ciegas. Por ejemplo, un navegante ciego caminando en un centro comercial es incapaz de acceder al directorio de tiendas o en un aeropuerto de las pantallas electrónicas de los horarios de salida y de llegada. Aunque los sistemas basados 鈥嬧媏n GPS habilitados para el habla se pueden utilizar para obtener acceso a los nombres de las calles y las tiendas cercanas y las señales de tráfico audible puede dar pistas acerca de cuándo es seguro para cruzar la calle, estas tecnologías no están ampliamente disponibles para los navegadores. Por otra parte, la mayoría de las tecnologías de navegación cuestan cientos o miles de euros. Esto hace que sea prohibitivo para la mayoría comprar estos dispositivos sin ayudas. A la hora de diseñar sistemas de asistencia a la navegación, como peatón, de las personas invidentes, hay que tener en cuenta que salvo en aquellas en las que su discapacidad sea sobrevenido por causa de un accidente, glaucoma, etc las indicaciones deben estar basadas en sus circunstancias. Quienes nunca a disfrutado de la visión deben aprender a detectar obstrucciones a su trayectoria de desplazamiento, encontrar bordillos y escaleras, interpretar los patrones de tráfico con el fin de saber cuando el semáforo está en rojo o verde, no virar al cruzar la calle, y un sinfín de tareas. También deben llevar un registro de dónde se encuentran en el entorno y cómo afecta su posición y orientación actual a donde quieren ir. Estas tareas son cognitivamente exigentes y con frecuencia requieren la resolución consciente de problemas a cada momento. En comparación, las personas videntes resolven estos problemas visualmente de una manera más automática, menos cognitivamente exigente. En otras palabras, la navegación basada en visión es más un proceso conceptual, mientras que la navegación a ciegas supone un esfuerzo que requiere el uso de los recursos cognitivos y de atención. La mayoría de las personas videntes nunca han considerado cómo evitan obstáculos, caminar en línea recta, o reconocer puntos de referencia. No es algo conscientemente aprendido; es sólo algo que hacen. El dispositivo ideal sería emplear un mapeo intuitivo que requiera poca o ninguna formación.Existen tres tipos de tecnología empleada en los dispositivos de asistencia a la navegación ciega.
    Los dispositivos basados 鈥嬧媏n sonar pueden operar en la oscuridad, la lluvia y la nieve. Esta versatilidad ofrece una ventaja funcional de estos dispositivos para uso al aire libre. Sin embargo, no son ideales para su uso en lugares muy concurridos o confinados ya que los ecos de sonar se distorsionan, haciendo que la información recibida por el usuario no sea fiable. La tecnología basada en la cámara puede funcionar bien en una amplia gama de condiciones de funcionamiento tanto dentro como fuera, pero estos sistemas puede tener dificultad con la estabilización de imagen en movimiento cuando es utilizado por los peatones, y amplias variaciones en la luminosidad ambiente dentro y entre las escenas. Dispositivos basados 鈥嬧媏n GPS que son bastante precisos en una amplia gama de condiciones atmosféricas, pero la señal es la línea de visión y por lo tanto pueden ser interrumpidos o totalmente oculta en determinados lugares como cuando no funciona en interiores.
 
Antes de la aparición de las Google Glasses, el Dr. Stephen Hicks, ganador del Premio Brian Mercer 2013 de Innovación desarrolló una nueva tecnología que hace uso de la visión residual a las personas no totalmente invidentes mediante la presentación de los objetos cercanos en las lentes de las gafas especialmente diseñadas por su laboratorio.

Precisamente partiendo del aprovechamiento de la funcionalidad de las gafas de Google, la compañía española NeoSenTec ideó una aplicación que permitía una asistencia a la navegación de gran utilidad. Con su versión para smartphones, el proyecto asturiano Lazzus resultó galardonado en la categoría de “Aplicación Mobile for Good”, que premia la aplicación de smartphone que contribuya a la mejora de la calidad de vida, la autonomía personal o la promoción del envejecimiento activo otorgado por la Fundación Vodafone. “Lazzus” está disponible para Android e iOS, ayuda a las personas con discapacidad visual a descubrir lo que se encuentra a su alrededor, generando un campo de visión artificial que transmite información sonora sobre el entorno del usuario y ofrece geolocalización y búsqueda de puntos de interés.

- Tiempo de lectura

Compatibilidad entre Inteligencia Artificial y Emocional

Por Editorial Vodafone Business
Allá por 2005, en los albores de la Inteligencia Artificial, el especialista Nils J. Nilson reclamaba seriedad a la hora de aplicar el calificativo humano al comportamiento de una máquina. Con el título Human-Level Artificial Inteligence: Be Serious! desgranaba las limitaciones y retos a superar en el desarrollo de robots inteligentes. Claro que, por entonces, también se preguntaba qué tipo de tareas podían realizar las máquinas sustituyendo a los humanos y prácticamente se limitaba a funciones susceptibles de ser automatizadas y cuya capacidad de aprendizaje y respuesta se ajustara a un patrón. La capacidad de aprender es sin duda un rasgo de inteligencia, pero no necesariamente exclusivo de los humanos. En su estudio, publicado por la revista AI Magazine, habla incluso del método de premio y castigo más allá del ensayo y error, así como de otras actitudes semi humanas necesarias para lograr máquinas que nos suplanten. Metas que suponía posiblemente inalcanzables como sistemas sensomotrices, al principio torpes como los de un niño especula Nilson, pero sobre todo habilidades abstractas como la capacidad de jerarquizar, dotes de percepción, representación y toma de decisiones: “The core system should have the means to represent abstraction hierarchies of relational models (using a vocabulary of basic and learned perceptual predicates) and hierarchies of motor routines.» —es decir— «El sistema central debería ser capaz de representar jerarquías abstractas y modelos relacionales usando un vocabulario básico y frases aprendidas, así como jerarquizar rutinas». Es por tanto en la posibilidad de utilizar de forma inteligente el lenguaje en donde sitúa la frontera entre inteligencia Artificial y nivel Humano. “Linguistic abilities will be needed for several purposes: for communication among habile agents, for communication with humans, for learning by reading, and (perhaps) for internal representation and reasoning. And, of course, for taking the courses and the exams!” Nils J. Nilson [Las habilidades lingüísticas serán necesarias para diversos propósitos como la comunicación entre agentes implicados, con humanos, para aprender y leer y (tal vez) para razonamiento y representación interna. Y, por supuesto, ¡para estudiar y examinarse!] De hecho, ya en 1950 Alan Turing afirmó que era demasiado difícil de definir el pensamiento en una máquina. En su lugar, propuso lo que ha dado en llamarse la “Prueba de Turing«. Para pasar la prueba, una máquina debe ser capaz, para convencer a los participantes humanos, de mantener una puesta en escena con diálogos anónimos al comunicarse con un ser humano en lugar de con una máquina. Muchos especialistas dudan de que la prueba de Turing constituya un criterio apropiado o útil para calificar como humana el nivel de AI. Diez años después de ese artículo, los robots conviven con nosotros no sólo en la industria 4.0 sino en forma de apps que nos hacen la vida más fácil desde un simple dispositivo personal, desde un aspirador a un weareable. Y en un entorno en el que cualquier usuario puede interactuar con una máquina, el caso de Siri, el famoso asistente de Apple es un paradigma. ¿Qué es lo que falta para considerar humana la inteligencia artificial? Probablemente, la empatía. Mientras investigamos para dotar a las máquinas de sentimientos humanos capaces de conseguir inteligencia emocional artificial, la tecnología con capacidad de pensar y tomar decisiones por nosotros puede ayudarnos a minimizar graves problemas sociales casi sin darnos cuenta. Matthew Zeiler, fundador de una compañía dedicada a desarrollos AI, describía recientemente algunos de ellos. Gracias a las posibilidades de reconocimiento de imágenes en los robots online, se pueden filtrar las no apropiadas como aquellas de carácter pornográfico que representen una forma de acoso y agresión sexual. Lo mismo que puede servir para combatir los sesgos discriminatorios por razones de raza, religión o aspecto físico. Robots inteligentes son usados para detectar armas, artículos robados, drogas o especies exóticas en el mercado negro de internet. Aunque, claro está y así concluye el autor su reflexión, en última instancia los robots habrán aprendido de las instrucciones ordenadas por la persona que los creó, y estarán sujetos a su ética. https://www.youtube.com/watch?v=u-1_MlzouOQ En el momento en que logremos máquinas capaces de pensar, sentir y reaccionar como seres humanos, pero con la infalibilidad de un robot, estaremos ante la creación de una súper inteligencia que planteará debates éticos más allá de las famosas leyes de la robótica de Asimov. Nick Bostrom, profesor de filosofía en la Universidad de Oxford, plantea la siguiente cuestión : Dado que la super-inteligencia puede llegar a ser imparable y de gran alcance, debido a su superioridad intelectual y las tecnologías que podría desarrollar, es crucial que se le facilite motivaciones humanas. Un súper inteligencia es cualquier intelecto que supera ampliamente los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creación científica, la sabiduría en general, y las habilidades sociales. Esta definición deja abierta cómo se implementa la Súper Inteligencia Artificial: podría estar en un solo ordenador, un conjunto de ordenadores conectados en red, los tejidos corticales cultivadas, o como sucede en el Big Data, con la Open Innovation de la sociedad colaborativa. En 2003, cuando el entorno social digital era una quimera, el profesor Bostrom imaginaba todo tipo de aplicaciones para esta inteligencia superior como ordenadores más potentes, la eliminación de enfermedades y envejecimiento o realidad virtual realista. Pero también alertaba sobre algunas consecuencias negativas, como la posibilidad de que estos entes se reproduzcan por su cuenta y decidan no servir a los humanos, puesto que no necesariamente sus mentes serían similares a las humanas. Programarlas para que no se vean afectadas por las consecuencias negativas de un exceso de empatía a la hora de tener que tomar una decisión drástica en medio de una operación quirúrgica, o por el contrario, evitar que puedan tener sentimientos negativos aprendidos supone tomar conciencia de que humanizar la tecnología requiere un planteamiento serio en cuestiones éticas. Sin embargo, en la medida en que la ética es una actividad cognitiva, una súper inteligencia podría hacerlo mejor que los pensadores humanos. Esto significa que las preguntas sobre la ética, en la medida en que tienen respuestas correctas que pueden ser alcanzadas por el razonamiento y la ponderación de las pruebas, podrían ser respondidas con mayor precisión por un robot que por los seres humanos. Lo mismo vale para las cuestiones de política y planificación a largo plazo; cuando se trata de entender qué políticas conducirían a qué resultados ¿sería más eficaz en la consecución de los objetivos propuestos, una súper-inteligencia? Ignoramos hasta qué punto las máquinas formarán parte de nuestras vidas en una relación igualitaria, lo que está claro es que cada vez nuestra interacción con ellas es menos fría y que poco a poco estamos enseñándolas a entendernos e incluso, como ocurre con el bebé foca robot Nuka, ayudan a mejorar su capacidad de relación y comunicación a los humanos autistas.
Resultados de 1 a 12