Vodafone

Saltar al contenido principal
cabecera nuestra vision

Nuestra Visión

Explora con nosotros el futuro

Artículos Nuestra Visión

- Tiempo de lectura

Las 10 supercomputadoras m谩s r谩pidas del mundo

Por Editorial Vodafone Business
Desde hace 26 años, la lista TOP500 establece un ranking de las Supercomputadoras más rápidas del mundo. La primera versión de lo que se convirtió en la lista TOP500 de hoy comenzó como un ejercicio para una pequeña conferencia en Alemania en junio de 1993. Por curiosidad, los autores decidieron volver a visitar la lista en noviembre de 1993 para ver cómo habían cambiado las cosas. Alrededor de ese tiempo, se dieron cuenta de que podrían haber dado con algo y decidieron continuar compilando la lista, que ahora es un evento bienal, muy esperado, muy visto y muy debatido dos veces al año. La 53ª edición de Top500 marca un hito y por primera vez, los 500 sistemas ofrecen un petaflop o más en el punto de referencia High Performance Linpack (HPL), con el nivel de entrada a la lista ahora en 1.022 petaflops. La parte superior de la lista permanece prácticamente sin cambios, con solo dos entradas nuevas en el top 10, una de las cuales era un sistema existente que se actualizó con capacidad adicional.El Sunway TaihuLight, un sistema desarrollado por el Centro Nacional de Investigación de Ingeniería y Tecnología de Computadores Paralelos (NRCPC) de China e instalado en el Centro Nacional de Supercomputación en Wuxi, ocupa la posición número tres con 93.0 petaflops. Está alimentado por más de 10 millones de núcleos de procesador SW26010. En el número cuatro está la supercomputadora Tianhe-2A (Vía Láctea-2A), desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y desplegada en el Centro Nacional de Supercomputación en Guangzhou. Utilizó una combinación de procesadores Intel Xeon y Matrix-2000 para lograr un resultado de HPL de 61.4 petaflops.

- Tiempo de lectura

Hardware para Inteligencia Artificial

Por Editorial Vodafone Business
La Inteligencia Artificial está demandando nuevo hardware más potente y específicamente diseñado para las cargas de trabajo y cálculos diferentes a las actuales, como son predicción, inferencia o intuición. Para IBM, si vamos a hacer grandes avances en IA, nuestro hardware también debe cambiar. Comenzando con GPU, luego evolucionando a dispositivos analógicos, y después a computadoras cuánticas tolerantes a fallas. El Deep Learning distribuido (DDL) ha progresado a un ritmo de aproximadamente 2.5 veces por año desde 2009, cuando las GPU pasaron de aceleradores gráficos de videojuegos a formadores modelo de aprendizaje profundo. Los algoritmos DDL se «entrenan» en los datos visuales y de audio, y la mayor cantidad de GPU debería significar un aprendizaje más rápido. Hasta la fecha, la eficiencia de escala del 95 por ciento del establecimiento récord de IBM (es decir, una capacitación mejorada a medida que se agregan más GPU) puede reconocer el 33.8 por ciento de 7,5 millones de imágenes, usando 256 GPU en 64 sistemas de energía «Minsky». En IBM Research creen que esta transición de las GPU ocurrirá en tres etapas. Primero, utilizarán GPU y crearán nuevos aceleradores con CMOS convencional a corto plazo para continuar; segundo, buscarán formas de explotar dispositivos analógicos y de baja precisión para reducir aún más la potencia y mejorar el rendimiento; y luego cuando ingresemos en la era de la computación cuántica, ésta potencialmente ofrecerá enfoques completamente nuevos. Los aceleradores en CMOS aún tienen mucho que lograr porque los modelos de aprendizaje automático pueden tolerar cálculos imprecisos. Es precisamente porque «aprenden» que estos modelos pueden funcionar a través de errores (errores que nunca toleraremos en una transacción bancaria). En 2015, Suyong Gupta, et al. han demostrado en su documento ICML Aprendizaje profundo con precisión numérica limitada que, de hecho, los modelos de precisión reducida tienen una precisión equivalente al estándar actual de 64 bits, pero usan tan solo 14 bits de precisión de coma flotante. Vemos esta precisión reducida, una tendencia de computación más rápida que contribuye a la mejora de 2.5X por año, al menos hasta el año 2022.Eso nos da unos cinco años para ir más allá del cuello de botella de von Neumann y para los dispositivos analógicos. Mover datos hacia y desde la memoria ralentiza la capacitación de la red de aprendizaje profundo. Entonces, encontrar dispositivos analógicos que puedan combinar memoria y computación será importante para el progreso de la computación neuromórfica . Su arquitectura de «neuronas» interconectadas reemplaza el cuello de botella de von-Neumann con señales de baja potencia que van directamente entre las neuronas para una computación más eficiente. El Laboratorio de Investigación de la Fuerza Aérea de los EE. UU. está probando una matriz de 64 chips del sistema IBM TrueNorth Neurosynaptic diseñado para la inferencia profunda de redes neuronales y el descubrimiento de información. El sistema usa CMOS digital estándar pero solo consume 10 vatios de energía para alimentar sus 64 millones de neuronas y 16 mil millones de sinapsis. Recientemente, científicos de IBM demostraron la computación en memoria con 1 millón de dispositivos para aplicaciones en IA, publicando sus resultados, detección de correlación temporal usando memoria de cambio de fase computacional, en Nature Communications, y también presentándola en la sesión IEDM Recuperación de detección comprimida usando memoria computacional . El Artículo puede consutarse aquí: NPJ

- Tiempo de lectura

Aspectos positivos de la Deep Web

Por Editorial Vodafone Business
Cuando oímos hablar de esa zona de internet opaca conocida como Web Profunda, inevitablemente pensamos en los aspectos negativos que imaginamos supone el intercambio de información de cualquier procedencia y naturaleza sin la transparencia que esperamos. En realidad, esa Deep Web también se refiere a todo el contenido que no es indexado por los buscadores habituales de todos conocidos. Se calcula que en torno al 95% de todo el contenido de internet es material diferente a texto, que es lo fácilmente indexable. Miles de tipos diferentes de datos no textuales como video, audio o imágenes sin la información necesaria para que sean localizados por Google. En otras ocasiones, los requisitos de registro previo del usuario para acceder a la información, impiden esa búsqueda. Se trata de un principio básico de la privacidad pues, por ejemplo, el contenido de los mensajes de Gmail o los documentos en Dropbox, aunque sean visibles para cualquier usuario registrado no son accesibles por los motores de búsqueda pública. Aunque, y por eso funciona la publicidad contextual, sí es visible para los robots. Existen por tanto infinidad de contenidos opacos que reúnen estas características: Exigen al usuario completar datos de acceso. Involucran contenido dinámico tipo AJAX o JavaScript. Contienen imágenes u otra información no indexable. Para Cristiano Mattman, Director Científico de Datos de la NASA, esto no permite definirlos como Deep Web, sino que han de estar alojados en servidores web que utilizan el protocolo de red anónima denominada Tor. Este protocolo fue creado con buenas intenciones, por el Departamento de Defensa de EEUU para proteger información sensible y fue publicado como Dominio Público en 2004. El problema llegó cuando organizaciones y particulares con intenciones menos nobles comenzaron a utilizar sus posibilidades para el tráfico de drogas, armas o personas. En 2014 el Gobierno de EEEUU puso en marcha el programa Memex  con el fin de ayudar a la policía a identificar operaciones delictivas on line, dentro de la Deep Web, mediante minería de datos. El empleo de esta herramienta para supervisar la web profunda de forma continuada podría ayudar a identificar situaciones en la trata de personas y armas poco después de que las fotos se publiquen en línea. Eso podría evitar que se produzca un crimen y salvar vidas. [youtube]https://youtu.be/9QsjkJcUznA[/youtube] Paradójicamente, la investigación en tecnologías que rompan los límites de los motores de búsqueda, beneficiará al desarrollo de los buscadores del futuro que todos emplearemos. Las tecnologías desarrolladas en el programa proporcionarían los mecanismos para mejorar la detección de contenido, extracción de información, recuperación de información, la colaboración del usuario y otras funciones clave de búsqueda. Concretamente, a partir de Memex, se espera llegar a: El desarrollo de la próxima generación de tecnologías de búsqueda para revolucionar el descubrimiento, organización y presentación de los contenidos específicos de dominio La creación de un nuevo paradigma de búsqueda de dominio específico para descubrir contenido relevante y organizarlo de manera que sean más inmediatamente útil para tareas específicas. La ampliación de las capacidades de búsqueda actuales a la profundidad de contenido web y no tradicional. Interfaces mejoradas para militares, funcionarios y empresas comerciales para encontrar y organizar la información a disposición del público en Internet. Por ejemplo, las búsquedas en internet siguen siendo en gran medida un proceso manual que no salva sesiones, requiere una palabra casi exacta con la entrada de una en una sola vez, y no organiza ni en los resultados agregados más allá de una lista de enlaces. Los nuevos buscadores basados en Memex prometen solucionarlo. Adicionalmente, la creación de nuevos sistemas de búsqueda de información compleja en internet, o en el Big Data de intranets, facilitaría la labor de científicos de todas las especialidades, que podrían rastrear, indexar y correlacionar millones de archivos gráficos o gráficos sin datos suficientes para ser localizados. Sin contar con que todo el código escrito para Memex, como TOR, es Open Source y decenas de equipos independientes ya trabajan para exprimir sus posibilidades. [youtube]https://www.youtube.com/watch?v=vObvEGtPHKo[/youtube]
Resultados de 1 a 3