Cómo la inteligencia artificial está cambiando el mercado de chips



En menos de 12 horas, tres personas diferentes me ofrecieron dinero para hablar con un extraño por teléfono durante una hora.

Todos dijeron que les gustó mi artículo sobre cómo Google crea un nuevo chip de computadora para IA , y todos me rogaron que discutiera este tema con su cliente. Cada uno describió a su cliente como administrador de un gran fondo de cobertura, pero no dio su nombre.

Las solicitudes provienen de las llamadas redes de expertos: empresas de investigación que conectan a los inversores con personas que pueden ayudar a los primeros a comprender ciertos mercados y proporcionar una ventaja competitiva (a veces, aparentemente, a través de información privilegiada).) Estas redes de expertos querían que explicara cómo afectará el procesador de inteligencia artificial de Google al mercado de chips. Pero primero, exigieron firmar un acuerdo de confidencialidad para ellos. Me he negado

Estos, por iniciativa propia, solicitudes específicas y asertivas, que ocurrieron hace tres semanas, enfatizan los cambios radicales que deberían esperarse en un mercado muy rentable para chips de computadora, cambios inspirados en el desarrollo de la IA. Los administradores de esos fondos de cobertura vieron estos cambios, pero no saben exactamente cómo jugarán.

Naturalmente, nadie sabe exactamente cómo jugarán.

Hoy, gigantes de Internet como Google, Facebook, Microsoft, Amazon y Baidu están explorando una amplia gama de tecnologías que podrían conducir a avances en la IA, y sus decisiones cambiarán los ingresos de empresas como Intel y nVidia. Pero ahora, incluso los informáticos de estos gigantes en línea no saben lo que nos espera en el futuro.

Tómalo más profundo


Las empresas administran sus servicios en línea desde centros de datos que contienen miles de servidores, cada uno equipado con un procesador central, CPU. Pero al dominar gradualmente una de las formas de IA llamadas redes neuronales profundas , estas compañías complementan la CPU con otros procesadores. Las redes neuronales se entrenan en tareas mediante el análisis de grandes cantidades de datos, desde caras y objetos en fotografías hasta traducción entre idiomas , y no solo necesitan la potencia del procesador.

Por lo tanto, Google creó la Unidad de procesamiento de tensor , o TPU. Microsoft usa un procesador llamado Field-Programmable Gate Array (FPGA). Muchas compañías usan computadoras equipadas conGPU , GPU. Todos ellos buscan una nueva generación de chips que puedan acelerar el trabajo de la IA en los teléfonos inteligentes y otros dispositivos.

Debido al amplio alcance de las actividades de estas empresas, todas las decisiones que toman son importantes. Compran y usan más hardware de computadora que todos los demás en el planeta, y esta brecha solo se ampliará debido a la creciente importancia de la computación en la nube. Si Google elige un procesador, podría cambiar los fundamentos de la industria de los chips.

Los TPU son una amenaza para compañías como Intel y nVidia, ya que Google lo hace ellos mismos. Pero las GPU juegan un papel importante en Google y compañías similares, y nVidia es el principal fabricante de estos chips. Mientras tanto, Intel ingresa a la industria al adquirir Altera, una compañía que vende FPGA en Microsoft. Esta fue la compra más grande de Intel de todos los tiempos ($ 16.7 mil millones), y esto resalta cómo está cambiando el mercado de chips.

Primero, entrenando, luego, haciendo


Comprender todo esto es difícil, por ejemplo, debido al hecho de que las redes neuronales operan en dos etapas. El primero es la capacitación, en la cual una compañía como Google enseña a la red neuronal cómo realizar una tarea, por ejemplo, reconocer rostros en una foto o traducir de un idioma a otro. La segunda es la ejecución, durante la cual la gente común, como usted y yo, usamos una red neuronal: publicamos una foto de la reunión de ex alumnos en Facebook, y automáticamente marca a las personas en ella. Estas dos etapas son muy diferentes, y cada una de ellas requiere diferentes enfoques, que incluyen y procesador.

Las GPU son las más adecuadas para entrenar hoy. Fueron desarrollados para representar imágenes en juegos y otras aplicaciones gráficas, pero en los últimos años, Google descubrió que estos chips pueden procesar eficientemente, en términos de energía, grandes cantidades de datos necesarios para entrenar redes neuronales. Esto significa que se pueden entrenar más redes neuronales con menos equipo. El investigador de Microsoft AI Xuedong Huang [XD Huang] llama a la GPU un "arma real". Recientemente, su equipo completó la creación de un sistema que reconoce el habla humana, lo que les llevó un año. Sin una GPU, dijo, habría llevado cinco años. Después de la publicación del trabajo en este sistema, abrió el champán en casa con Jen-Hsun Huang, directora de nVidia.

A los teléfonos inteligentes


Al mismo tiempo, otras compañías están creando chips para la operación de redes neuronales en teléfonos inteligentes y otros dispositivos. IBM está trabajando en dicho chip, aunque muchos tienen dudas sobre su efectividad. Intel decidió adquirir Movidius, que ya suministra chips para dispositivos móviles.

Intel entiende que el mercado está cambiando. Hace cuatro años, la compañía dijo que vendía más procesadores de servidor en Google que las otras cuatro compañías. Esto muestra cómo Google y otras compañías similares pueden influir en el mercado de chips. Intel ahora está apostando en todas las áreas. Además de adquirir Altera y Movidius, también decidió comprar Nervana, una compañía de chips de IA.

Esto tiene sentido ya que el desarrollo del mercado apenas comienza. "Estamos al pie de una nueva gran ola de crecimiento", me dijo el vicepresidente de Intel Jason Waxman, "y está impulsada por la IA". La única pregunta es a dónde nos llevará esta ola.

Source: https://habr.com/ru/post/es399021/


All Articles