Microsoft está desarrollando un acelerador de IA para HoloLens



Las empresas de tecnología buscan transferir las funciones de inteligencia artificial a teléfonos inteligentes y otros dispositivos portátiles. Por ejemplo, es conveniente llevar en el bolsillo la capacidad de mostrarle a los mecánicos cómo reparar el motor o decirle a los turistas en su idioma nativo lo que ven y oyen. Pero hay un problema: no puede administrar una gran cantidad de datos que hacen posible estas tareas sin ralentizar el dispositivo y sin agotar la batería en cuestión de minutos.

Durante muchos años, los procesadores centrales de Intel, ARM y otros, proporcionaron suficientes oportunidades para la operación de dispositivos y servidores en todo el mundo. Pero el rápido desarrollo de la inteligencia artificial en los últimos cinco años ha llevado a algunos fabricantes de chips tradicionales a enfrentar una competencia real. Las capacidades crecientes de la IA están asociadas en gran medida a las redes neuronales que analizan patrones y participan en ellas. Los procesadores universales utilizados en PC y servidores hacen un mal trabajo al procesar múltiples hilos simultáneamente.

El 23 de julio, en la conferencia CVPR2017 en Honolulu, Hawai, Microsoft anunció la segunda versión del chip de la Unidad de Procesamiento Holográfico (HPU) para gafas HoloLens. HPU 2.0 es un procesador de IA opcional que analiza todo lo que el usuario ve y escucha directamente en el dispositivo, y no gasta microsegundos preciosos en enviar datos a la nube. HPU 2.0 se encuentra actualmente en desarrollo y se incluirá en la próxima versión de HoloLens. Este es uno de los pocos casos en que Microsoft participa en todas las etapas de desarrollo (excepto la producción) del procesador. Los representantes de la compañía afirman que este es el primer chip diseñado específicamente para un dispositivo móvil.

Microsoft ha estado trabajando en sus chips durante varios años. La compañía creó un procesador de seguimiento de movimiento para Xbox Kinect, y recientemente usó chips personalizados (matrices de puertas programables por el usuario) para aplicar las capacidades de inteligencia artificial a las tareas del mundo real. Microsoft compra chips de Altera, una subsidiaria de Intel, y luego los adapta para sus propios fines utilizando software.

En 2016, Microsoft usó miles de estos chips para traducir toda la Wikipedia en inglés al español (tres mil millones de palabras en cinco millones de artículos) en menos de una décima de segundo. En 2018, la corporación planea permitir a los usuarios de computación en la nube usar estos chips para acelerar sus propias tareas de inteligencia artificial: reconocer imágenes de grandes conjuntos de datos o usar algoritmos de aprendizaje automático para predecir varios modelos económicos y de otro tipo.


Animación promocional de HPU 2.0

Microsoft tiene muchos competidores en este negocio: Amazon usa matrices programables por el usuario y planea usar el nuevo chip Nvidia para la IA de microarquitectura Volta , y Google ha creado sus propios semiconductores de IA, la Unidad de Procesamiento de Tensor . Crear chips dentro de la empresa es costoso Pero Microsoft dice que no tiene otra opción, porque la tecnología se está desarrollando muy rápido.

Source: https://habr.com/ru/post/es405563/


All Articles