La apuesta cuántica de Google en IA, y lo que significa para toda la humanidad

Google tiene más poder de cómputo, datos y especialistas más talentosos para trabajar en inteligencia artificial que cualquier otra compañía en la Tierra, y no se ralentiza. Por lo tanto, las personas no deben disminuir la velocidad.




El cerebro humano es algo divertido. Algunos recuerdos permanecen con nosotros para siempre: el nacimiento de un niño, un accidente automovilístico, el día de las elecciones. Pero solo podemos guardar algunos detalles (el color de la puerta del departamento obstétrico, el olor de la mesa electoral) y otros detalles, como la cara de la enfermera o cómo estábamos vestidos en el momento del accidente, desaparecen. Sundar Pichai, CEO de Google, recordará para siempre el día en que AI dejó el laboratorio.

"Fue en 2012, estaba en la misma habitación con un pequeño equipo, donde solo había unas pocas personas", dice. Jeff Dean , el legendario programador de Google que ayudó a escribir el motor de búsqueda, estaba trabajando en un nuevo proyecto y quería que Pichai lo revisara. "Cada vez que Jeff quiere mostrarte algo nuevo, sientes una emoción alegre", dice.

Pichai no recuerda en qué edificio en particular observó el trabajo de Dean, aunque otros detalles extraños de ese día le recordaron. Él recuerda que no se sentó, sino que se puso de pie, mientras alguien bromeaba cerca sobre el departamento de recursos humanos, quien nombró al recientemente reclutado Jeffrey Hinton , el "padre de la educación profunda", un investigador de IA que ha estado involucrado en esto durante cuatro décadas, como pasante. Turing

El futuro CEO de Google en ese momento era un vicepresidente senior, lideraba proyectos Chrome y Apps, y no pensaba en la IA. Y nadie en Google miraba en dirección a la IA, al menos en serio. Sí, 12 años antes, los fundadores de Google, Larry Page y Sergey Brin, anunciaron públicamente que AI transformaría la compañía. Page dijo a la revista en línea en mayo de 2000: “El motor de búsqueda perfecto es inteligente. Debe comprender su solicitud, comprender todos los documentos, y esto es claramente un trabajo para AI ". Pero, a pesar de las promesas de alto perfil, el aprendizaje automático (MO) durante décadas ha arrojado resultados mediocres en Google y otras empresas.



Sin embargo, en ese momento surgían fuerzas poderosas en los servidores de Google. Hace poco más de un año, Dean, Andrew Eun y sus colegas crearon una red informática masiva, cuyas conexiones simulaban el cerebro humano. El equipo reunió a 16,000 procesadores en 1,000 computadoras, que en conjunto tenían mil millones de conexiones. Era un sistema informático sin precedentes, aunque todavía estaba muy por detrás del cerebro humano, con sus 100 billones de conexiones.

Para probar el procesamiento de datos de esta red neuronal masiva, los ingenieros lanzaron un experimento aparentemente simple. Durante tres días seguidos, alimentaron al automóvil con una dieta de millones de imágenes aleatorias de videos de YouTube, un servicio de alojamiento de videos comprado por Google en 2006. No le dieron ninguna instrucción y querían ver qué haría con él. Vieron que el cerebro de la computadora que procesó YouTube no era tan diferente del humano. En un rincón lejano de la memoria de la computadora, Dean y sus colegas descubrieron una imagen borrosa y generada espontáneamente de un objeto que la computadora había estado encontrando durante 72 horas: los gatos.

Era una máquina de aprendizaje independiente.

Cuando Pichai vio por primera vez cómo está emergiendo la inteligencia en los servidores de Google, sintió cómo estaba cambiando su percepción del mundo, sintió cierta corazonada. "Esta cosa iba a crecer en escala y tal vez nos muestre cómo funciona el universo", dice. "Esto será lo más importante en lo que nosotros, la humanidad, trabajaremos".

El advenimiento de la IA en Google recuerda el camino que miles de millones de personas juntas han tomado hacia el futuro digital; y pocas personas realmente entienden este camino, pero al mismo tiempo no podemos desactivarlo. Y en su mayor parte, Google lo domina. Pocos planetas de otras compañías (sin mencionar a los gobiernos) quieren o pueden avanzar igualmente eficazmente en el pensamiento informático. Google está trabajando en más productos que cualquier otra compañía de tecnología en el planeta (con mil millones de usuarios): Android, Chrome, Drive, Gmail, Google Play Store, Maps, Photos, Search y YouTube. A menos que viva en China y tenga acceso a Internet, es casi seguro que algunos de los proyectos de Google complementen su cerebro.

Poco después de que Pichai asumiera el cargo de CEO en 2015, se propuso hacer de Google una empresa con IA a la vanguardia. Ella ya tenía varias unidades orientadas a la investigación de inteligencia artificial, incluidas Google Brain y DeepMind (esta última se compró en 2014), y Pichai se centró en convertir todos estos valores intelectuales relacionados con la inteligencia en productos nuevos y mejorados. Introducido en mayo de 2018, Smart Compose para Gmail ya ofrece 2 mil millones de caracteres cada semana para respuestas a correos electrónicos. Google Translate puede recrear tu voz y hablar un idioma que no conoces. Duplex, un asistente personal, puede hacer citas y reservar mesas por teléfono usando una voz tan similar a la de un humano que muchos interlocutores ni siquiera sospecharon que fuera un robot. Este último plantea serios problemas éticos y genera quejas públicas. La compañía dice que siempre informa a los consumidores que la llamada proviene de Google.



El alcance de la IA de Google se extiende mucho más allá de los servicios de la empresa. Los desarrolladores de terceros, tanto empresas emergentes como grandes corporaciones, ya están utilizando herramientas de inteligencia artificial para todo, desde entrenar satélites inteligentes hasta rastrear cambios en la superficie de la Tierra o desarraigar el lenguaje ofensivo en Twitter (bueno, lo están intentando). Google AI se usa en millones de dispositivos, y esto es solo el comienzo. Google está a punto de lograr el llamado " superioridad cuántica ". Una nueva generación de computadoras podrá descifrar ecuaciones complejas millones de veces más rápido que las ordinarias. Estamos al borde de una era informática cósmica.

Cuando se usa con buenas intenciones, la IA puede desbloquear el potencial ayudando a la sociedad. Puede encontrar curas para enfermedades mortales (los directores de Google dicen que sus máquinas inteligentes han demostrado la capacidad de detectar el cáncer de pulmón cinco años antes que los médicos), alimentar a los hambrientos e incluso arreglar el clima. Un artículo publicado en la revista científica de la autoría de la Universidad de Cornell de varios investigadores líderes en IA (algunos de los cuales trabajan para Google) identificó varias formas en que el aprendizaje automático puede usarse para combatir el cambio climático, desde acelerar el desarrollo de herramientas para usar la energía solar hasta Optimización radical del uso de energía.

Cuando se usa en detrimento, con la ayuda de AI será posible armar a los tiranos, pisotear los derechos humanos, destruir la democracia, las libertades y la privacidad. La Unión de Libertades Civiles de Estados Unidos publicó un informe en junio titulado "El amanecer de la vigilancia robótica", que advirtió sobre cómo millones de cámaras de seguridad (incluidas las vendidas por Google) que ya están instaladas en todo Estados Unidos pueden usarse para la vigilancia del gobierno a través de la IA para los ciudadanos y gestionarlos. Esto ya está sucediendo en algunas áreas de China. En el mismo mes, se presentó una demanda en la corte acusando a Google de usar AI en hospitales con violación de la privacidad del paciente.

Cada avance importante en la historia de la humanidad se ha utilizado tanto para bien como para mal. La tipografía hizo posible distribuir "sentido común" como un trabajo de Thomas Payne [ folleto en apoyo de los separatistas estadounidenses que intentaron separarse de Gran Bretaña / aprox. perev. ], y el manifiesto del fascismo Mein Kampf ["Mi lucha"] por Adolf Hitler. Sin embargo, con el advenimiento de la IA, este problema tiene una nueva dimensión: la imprenta no elige qué imprimir. AI, habiendo alcanzado su máximo potencial, hará exactamente eso.

Es hora de hacer preguntas. "Piensa en los pensamientos que te gustaría poner en la cabeza de las personas que inventaron el fuego, comenzaron la revolución industrial o desarrollaron el desarrollo de la energía atómica", dice Greg Brockman, cofundador de OpenAI, una startup de IA de uso general que recibió $ 1 mil millones de Microsoft en julio. .

Los partidos políticos de izquierda y derecha dicen que Google es demasiado grande para dividirse. ¿Una empresa fragmentada se involucrará en la democratización de la IA? ¿O, como advirtieron los líderes de la compañía, el campeonato en esta área pasará al gobierno chino, que anunció su intención de apoderarse de la palma? El presidente Xi Jinping ha asignado más de $ 150 mil millones para convertirse en el líder mundial en inteligencia artificial para 2030.

Dentro de Google, las facciones en guerra luchan por el futuro de la IA. Miles de empleados se rebelaron contra los líderes, tratando de detener el uso de la tecnología que desarrollaron con fines de espionaje y militares. La forma en que Google decide desarrollar y aplicar IA probablemente determinará en última instancia si esta tecnología ayudará a la humanidad o la dañará. "Cuando se desarrollan estos sistemas, se pueden implementar en todo el mundo", explica Raid Hoffman, cofundador y vicepresidente de Linkedin, miembro de la junta directiva del Instituto de Inteligencia Orientada a los Humanos de la Universidad de Stanford. "Esto significa que todo lo que sus creadores hacen bien o mal afectará nuestras vidas a gran escala".



"Al principio, la red neuronal no está entrenada", dice Jeff Dean, una hermosa tarde de primavera en Mountain View, California. Se encuentra debajo de una palmera al lado del Anfiteatro Shoreline, donde Google organiza una fiesta para celebrar la inauguración de la feria anual de tecnología de E / S.

En este evento, Google revela sus planes a los desarrolladores y al resto del mundo. Dean, con una camisa polo rosa y gris, jeans, zapatillas y una mochila, es uno de los principales oradores. "Es como conocer a Bono " , jadea uno de los programadores coreanos, corriendo hacia Dean para tomarse una selfie con él después de uno de sus discursos ese día. "Jeff es un dios", me dice otra persona, casi sorprendida de que no lo sepa. En Google, Dean a menudo se compara con Chuck Norris, un héroe militante conocido por poseer kung fu y capaz de lidiar con muchos enemigos a la vez.

"Oh, eso se ve bien, y estoy solo", dice Dean con una sonrisa mientras el camarero se detiene a su lado, sosteniendo una bandeja de budines vegetarianos de tapioca. Apoyado contra un árbol, habla sobre las redes neuronales de la forma en que Laird Hamilton podría describir el surf en Teahupoo . Sus ojos se iluminan y sus manos hacen gestos rápidos. "Estas son las capas en la red neuronal", dice, agarrando el árbol y usando el tronco gris para explicar las conexiones entre las neuronas del cerebro de la computadora. Cuidadosamente mira el árbol, como si viera algo escondido adentro.

El año pasado, Pichai convirtió a Dean en el jefe de Google AI, es decir, responsable de lo que la compañía construirá y en qué invertir. Se merecía este papel, en particular, ampliando el experimento con la red neuronal de YouTube a una nueva plataforma, enseñando a las máquinas a pensar a gran escala. El sistema comenzó con el proyecto interno DistBelief, que muchos equipos, incluidos Android, Maps y YouTube, comenzaron a usar para hacer sus productos más inteligentes.

Pero para el verano de 2014, mientras DistBelief crecía dentro de Google, Dean comenzó a notar sus fallas. No estaba adaptado a los avances tecnológicos, como la creciente importancia de las GPU (chips de computadora para el procesamiento de gráficos) o la conversión de la voz en un conjunto de datos complejo. Además, DistBelief no tenía la intención de abrir código, lo que limitó su crecimiento. Por lo tanto, tomó una decisión audaz: crear una nueva versión abierta a todos. En noviembre de 2015, Pichai presentó al heredero de DistBelief, TensorFlow, este sería uno de sus mayores anuncios como CEO.

No se puede sobreestimar la importancia de abrir TensorFlow para desarrolladores fuera de Google. "La gente esperaba tocarlo", dijo Ian Brat, director de MO en Arm, una de las compañías de chips de computadora más grandes del mundo. Hoy, Twitter lo usa para crear bots de observación de conversaciones, clasificar tweets y alentar a las personas a pasar más tiempo en el feed. Airbus entrena satélites para que puedan estudiar casi cualquier parte de la superficie terrestre. Los estudiantes en Nueva Delhi han adaptado dispositivos móviles para monitorear la calidad del aire. La primavera pasada, Google lanzó las primeras versiones de TensorFlow 2.0, lo que hizo que su IA fuera aún más accesible para desarrolladores sin experiencia. El objetivo final es hacer que la creación de aplicaciones de IA sea tan simple como el proceso de creación de un sitio web.

TensorFlow ya se ha descargado 41 millones de veces. Millones de dispositivos (automóviles, drones, satélites, computadoras portátiles, teléfonos) lo utilizan para aprender, pensar, razonar y creatividad. El documento interno de la compañía contiene un gráfico que muestra el uso de TensorFlow dentro de Google (y, en consecuencia, la cantidad de proyectos relacionados con el aprendizaje automático): desde 2015, los indicadores han crecido en un 5000%.

Los expertos en tecnología señalan que TensorFlow puede no ser solo un regalo para los desarrolladores, sino un caballo de Troya. "Me preocupa que estén tratando de controlar el acceso a la IA", dijo un ex empleado de Google que quería permanecer en el anonimato, ya que su trabajo actual depende de tener acceso a la plataforma de Google. Hoy, TensorFlow tiene solo un competidor importante, PyTorch de Facebook, popular entre los científicos. Esto le da a Google un control significativo sobre la capa central de IA. "Mira lo que Google ha hecho con Android", continúa la misma persona. El año pasado, los reguladores de la UE multaron a la empresa con $ 5 mil millones por exigir a los fabricantes de productos electrónicos que preinstalen aplicaciones de Google en dispositivos que ejecutan el sistema operativo móvil de Google. Google ha presentado una apelación, pero las empresas están amenazadas con investigaciones adicionales sobre su comportamiento competitivo tanto en Europa como en India.

Al ayudar al crecimiento de la inteligencia artificial, Google ha creado una solicitud de nuevas herramientas y productos que la empresa puede vender. Un ejemplo son las Unidades de Procesamiento de Tensor (TPU), circuitos integrados diseñados específicamente para acelerar las aplicaciones que usan TF. Si los desarrolladores necesitan más potencia informática para aplicaciones con TF, y esto suele suceder, pueden pagar a Google por el tiempo y el lugar de uso de estos chips que funcionan en los centros de datos de Google.

El éxito de TF convenció a los escépticos entre los ejecutivos de Google. "Estaba claro para todos que la IA no funcionaría", recuerda Sergey Brin en una entrevista en el Foro Económico Mundial 2017. "La gente trató de hacer algo con eso, trató de usar redes neuronales y nada funcionó". Incluso cuando Dean y el equipo tuvieron éxito, Bryn se mantuvo firme. "Jeff Dean se me acercaba periódicamente y me decía: 'Mira, la computadora dibujó un gato', y yo dije: 'Está bien, eso es muy agradable, Jeff", dijo. Pero también tuvo que admitir que la IA fue "el avance más importante en la informática en toda mi vida".



La cuarta etapa del Anfiteatro Shorline tiene capacidad para 526 personas, y ahora todos los asientos están ocupados. Hay un segundo día de E / S, y Jen Gennai, directora de innovación responsable en Google, está dirigiendo un taller titulado "Escribir un guión para una IA y MO honesta y ética". Ella le dice a la multitud: “Hemos identificado cuatro áreas prohibidas, tecnologías que no desarrollaremos. No crearemos ni desplegaremos armas. Tampoco implementaremos tecnologías que, en nuestra opinión, violen los derechos humanos internacionales ". La compañía también promete abstenerse de tecnologías que causen "daños fundamentales" y "recopilar o utilizar información para vigilancia, violando estándares internacionalmente aceptados". Ella y otros dos directores de Google explican cómo la compañía ahora incorpora los principios de IA en todos los productos que se están desarrollando, y que Google tiene un plan integral para todo, desde desarraigar sesgos de algoritmos hasta predecir las consecuencias no deseadas del uso de IA.

Después del informe, los desarrolladores de varias compañías se reúnen en un pequeño grupo y expresan su descontento. "Me parece que no hemos recibido suficiente", comparte uno de ellos, un empleado de una gran corporación internacional que utiliza TF y que a menudo trabaja conjuntamente con Google. "Nos dicen: 'No te preocupes por eso, tenemos todo bajo control". Pero todos sabemos que esto no es así ”.

Y los desarrolladores tienen todas las razones para el escepticismo. Las palabras de los representantes de Google a menudo divergen de sus acciones, pero en el caso de la IA, las apuestas son más altas. Gizmodo fue el primero en informar sobre el contrato del Pentágono de Google para desarrollar la tecnología de aviones no tripulados de guerra del Proyecto Maven en marzo de 2018. Después de tres meses de protestas de Google, Pichai anunció que el contrato no se renovaría. Poco después, se conoció otro proyecto: Dragonfly, un motor de búsqueda para usuarios chinos, se suponía que era tan poderoso y omnipresente como el utilizado en el 94% de las consultas de búsqueda en los Estados Unidos, al mismo tiempo que estaba de acuerdo con la censura china que prohíbe la entrega de contenido para algunos Artículos relacionados con los derechos humanos, la democracia, la libertad de expresión y la desobediencia civil. Dragonfly también tuvo que vincular los números de teléfono de los usuarios a sus consultas de búsqueda. Los empleados se rebelaron durante otros cuatro meses, y los activistas trataron de incluir a los accionistas de Amnistía Internacional y Google en esta lucha. En diciembre pasado, Pichai le dijo al Congreso de Estados Unidos que Google ya no tenía planes de lanzar un motor de búsqueda en China.



Durante estos trastornos, uno de los programadores de Google le hizo a Dean una pregunta directa: ¿continuará la empresa trabajando con "regímenes tiránicos"?"Necesitamos saber: ¿a dónde va la línea?" - Este programador me dice, usando las mismas palabras que la propia empresa. “Insistí en responder la pregunta: ¿Qué cosas básicamente te negarías a hacer? Pero nunca recibió explicaciones claras ". En protesta, este empleado renunció.

Friendly Dean se pone serio si le haces una pregunta sobre el lado oscuro de la IA. "La gente de mi organización ha hablado sinceramente sobre lo que debemos hacer para el Ministerio de Defensa", dice, refiriéndose a su trabajo en el proyecto Maven. Dean describe una lista de aplicaciones de IA que hace Google, pero en las cuales él mismo no querría trabajar. “Uno de los proyectos es trabajar en armas autónomas. Esto es algo en lo que no quiero trabajar, y no quiero tener nada que ver con eso ", dice, mirándome directamente a los ojos.

En el proceso de desarrollar la historia de la inconsistencia del proyecto Maven, The Intercept y The New York Times publicaron correos electrónicos, que mostraron preocupación entre los representantes de la compañía sobre cómo el público puede percibir la amplitud de las ambiciones de Google para la IA. "No sé qué sucederá si los periódicos obtienen información sobre la producción secreta de armas de inteligencia artificial en las entrañas de Google", escribió Fei Fei Li, consultora científica principal del proyecto Google Cloud, uno de los autores de los "principios de IA en Google", escribió en uno de ellos. - Evite cualquier mención o inclusión en la discusión Y A CUALQUIER PRECIO. Convertir la IA en un arma es uno de los temas más delicados en el campo de la IA, si no el más sensible. Este es un dato de los medios que intentan encontrar alguna forma de dañar a la compañía ". También sugirió lanzar algunas historias de relaciones públicas positivas sobre la democratización de la IA por parte de la compañía,y lo que se llama "IA humanista". "Defendería con mucho cuidado estas imágenes positivas", escribió.

Las protestas relacionadas con la IA llevaron a una prolongada crisis de relaciones públicas. En marzo, la compañía anunció la creación de un consejo asesor externo sobre tecnologías avanzadas, conocido como el "Consejo de Ética de AI", pero no duró una semana después de que miles de empleados de Google se opusieran a su creación. La junta incluyó al director de la compañía de drones y presidente de la Fundación Heritage, un defensor de la derecha que hizo declaraciones públicas transfóbicas y negó el cambio climático.

Pichai mismo intervino varias veces en tal discusión. En noviembre pasado, en una carta a los empleados, reconoció los errores de Google. "Entendemos que no siempre hemos hecho todo bien en el pasado, y lo lamentamos sinceramente", dijo. "Obviamente necesitamos cambiar algo". Sin embargo, la controversia sobre el uso de la tecnología por parte de la compañía continúa destrozando a Google. En agosto, la organización de personal de Googlers for Human Rights [googlers for human rights] emitió una petición pública de más de 800 firmas, exigiendo que la empresa no proporcione tecnología a las aduanas, la policía de inmigración, los guardias de fronteras y la Unidad de Reubicación de Refugiados del Departamento de Salud de EE. UU.



Cuando le pregunté a Pichai acerca de cómo el enfoque de la IA en Google afecta su propio trabajo, lo relacionó con otra prioridad de la compañía: reducir la preocupación sobre lo que Google está haciendo con los datos del usuario que recibe. "Siempre exijo que los equipos que trabajan con IA, aunque esto suene algo contradictorio, aumenten la privacidad porque creo que la IA nos da la oportunidad de hacerlo". La primavera pasada, habló sobre cómo Google usa el MO para proteger los datos almacenados en los teléfonos inteligentes del acceso de terceros.

Él dice que los temores asociados con la IA son muy exagerados. "Es importante que las personas comprendan que aún no tiene que preocuparse: estamos en las primeras etapas y tenemos tiempo", explica. Pichai espera que Google pueda calmar todas las preocupaciones asociadas con la inteligencia artificial promocionando sus virtudes. Como parte de la iniciativa AI for the Common Good, Google está utilizando MoD para abordar, como dice la compañía, "los mayores problemas sociales, humanitarios y ambientales de la humanidad". Los equipos usan IA para predecir inundacionesseguimiento de la migración de ballenas, diagnóstico de cáncer, detección de minería ilegal y deforestación. En E / S, un joven emprendedor de Uganda invitado por la compañía describió cómo usa TensorFlow para rastrear la migración de las cucharadas de hojas de maíz en África, insectos que provocan hambre en todo el continente. Lanzado en 2018, el AI Impact Challenge ofreció subvenciones de $ 25 millones a organizaciones benéficas y nuevas empresas que usan IA para tareas como la conservación de bosques y la lucha contra incendios.

La compañía también en el proceso de disputas sobre IA rechazó dos iniciativas en conflicto. En diciembre pasado, Google archivó el software de reconocimiento facial, aunque su rival Amazon continúa desarrollando su versión del programa, a pesar de las protestas de sus empleados y las denuncias de discriminación racial policial. Una fuente informada dijo que debido a esta decisión, Google podría perder ganancias de miles de millones. La compañía también, por razones éticas, abandonó el proyecto de $ 10 mil millones para proporcionar un servicio en la nube para el Pentágono. Amazon y Microsoft todavía están haciendo esto.

Cuando se le preguntó cómo Google decide si un proyecto es útil o perjudicial para la sociedad, Pichai cita un "proyecto de lectura de labios". A un equipo de ingenieros se le ocurrió la idea de usar IA para leer los labios en las grabaciones de la cámara. Querían dar a las personas sordas la oportunidad de comunicarse. Sin embargo, alguien estaba preocupado por las consecuencias imprevistas de este proyecto. ¿Podrían personas sin escrúpulos poder usarlo para la vigilancia a través de cámaras de la calle? Los ingenieros probaron el proyecto en cámaras de calle, cámaras de seguridad y otras cámaras disponibles públicamente, y determinaron que la IA requeriría grabaciones de mayor tamaño. Google publicó el trabajo, confiando en que podría usarse de manera segura.



Santa Bárbara, California, tiene un día soleado, pero un termómetro en un laboratorio de Google muestra 10 microkelvins, 1/100 grados por encima del cero absoluto. "Este es uno de los lugares más fríos del universo", me dice Eric Lucero, investigador en el laboratorio. "Dentro de esta cosa", dice, señalando un contenedor de metal brillante, "hace más frío que en el espacio". El contenedor es similar en tamaño y forma a un barril de combustible, hecho de cobre y pavimentado con oro real. Los cables gruesos de aleación de niobio-titanio, similares a los tentáculos, salen desde arriba, a lo largo de los cuales las señales de control y los datos de los sensores se transfieren a la computadora y viceversa.

Este barril contiene una de las máquinas más frágiles y potencialmente más poderosas de la Tierra: una computadora cuántica. Si todo va de acuerdo al plan, bombeará seriamente las capacidades de la IA, tanto que nos hará reconsiderar nuestra comprensión del Universo y el lugar de la humanidad en él.

Los sueños de las computadoras cuánticas han existido desde la década de 1980, cuando Richard Feynman, uno de los participantes en el proyecto de Manhattan, que creó la bomba atómica, comenzó a presentar teorías sobre el empoderamiento de las computadoras mediante el uso de la mecánica cuántica, que se utilizó para crear física nuclear. Nuestras computadoras hoy trabajan con bits de información, y el valor de un bit puede ser uno o cero; necesitan calcular los resultados, las probabilidades y las ecuaciones paso a paso, excluyendo secuencialmente una opción tras otra, antes de llegar a una solución. Las computadoras cuánticas funcionan con qubits, en los que pueden existir ceros y unos simultáneamente. Esto permite que los qubits procesen cierta información mucho más rápido. Cuanto mas rapido Un ejemplo ampliamente conocido:Una computadora de 300 qubits podría realizar simultáneamente tantos cálculos como átomos hay en el universo.

"Pero estos son los qubits", dice Lucero, invitándome a mirar a través de un microscopio en el que veo algunas cruces borrosas. Hay 22 de ellos en total. Esta es una fiesta más pequeña. En otras partes del laboratorio de Google, se crearon 72 qubits. Hasta ahora, solo viven 20 μs en condiciones más frías que el espacio.

Para crear una computadora cuántica comercialmente valiosa, una compañía tendrá que crear suficientes qubits y mantenerlos estables y libres de errores el tiempo suficiente para que ocurran algunos avances informáticos serios. Otros laboratorios compiten con ellos, pero Google reunió a algunos de los mejores expertos del mundo para encontrar formas de crear un entorno en el que los qubits pudieran vivir y prosperar. Y se está moviendo hacia este objetivo más rápido de lo que cualquiera podría haber esperado: en diciembre Google comparó su mejor procesador cuántico con una computadora portátil normal, y la computadora portátil ganó. Unas semanas más tarde, después de algunos cambios en el procesador, todavía venció a la computadora portátil, pero se quedó atrás de la computadora de escritorio. En febrero, una computadora cuántica superó a todas las computadoras en el laboratorio.

Hartmut Niven, líder del equipo cuántico de Google, presentó los logros del laboratorio durante el simposio cuántico de primavera en mayo, y describió el aumento de la potencia de cómputo por un doble exponente, una ecuación increíble que se parece a esto:

2 2 1 , 2 2 2 , 2 2 3 , 2 2 4

En los círculos informáticos, dicha tasa de crecimiento de la potencia informática de las computadoras cuánticas se conoce con el nombre de la ley de Niven, que nos recuerda la ley de Moore, según la cual el desarrollo de las computadoras clásicas se caracteriza por una duplicación de la cantidad de transistores que colocan en un área de chips dada, aproximadamente una vez cada 18 meses.

Ahora el equipo de Google ha puesto su mira en un hito, la excelencia cuántica. Pasarán muchos años más hasta que su computadora cuántica alcance su máximo potencial. Pero en el laboratorio puedes sentir esta anticipación del momento. "Hay tareas que la humanidad no puede resolver sin una computadora cuántica", dice Lucero, de pie junto a la máquina que tendrá que hacer esto. "Esta idea de empoderar a la humanidad está causando emoción".

Hay un zumbido rítmico en la habitación, con el cual eclosionan los qubits. ¿Qué significará esto para la humanidad cuando las computadoras puedan pensar y contar exponencialmente más rápido? Esta nueva ciencia, tal vez, puede explicar los misterios más profundos del Universo: materia oscura, agujeros negros, el cerebro humano. "Este es el momento de '¡Hola, mundo!'", Dice Lucero, refiriéndose a la aparición en 1984 de Macintosh, la computadora que lanzó una nueva era para toda una generación de programadores. Y mientras Google abre esta puerta a un nuevo espacio, todos debemos prepararnos para lo que nos espera al otro lado.

Source: https://habr.com/ru/post/474850/


All Articles