El aprendizaje automático se usa cada vez más en la física de partículas.



Los experimentos en el Gran Colisionador de Hadrones producen cada segundo aproximadamente un millón de gigabytes de datos. Incluso después de la reducción y la compresión, los datos obtenidos en el LHC en solo una hora, por volumen, son comparables con los datos recibidos por Facebook durante todo el año.

Afortunadamente, los expertos en física de partículas no tienen que lidiar con estos datos manualmente. Trabajan en conjunto con un tipo de aprendizaje de inteligencia artificial para realizar análisis de datos independientes utilizando tecnología de aprendizaje automático.

"En comparación con los algoritmos informáticos tradicionales que desarrollamos para realizar un cierto tipo de análisis, creamos el algoritmo de aprendizaje automático para que decida qué tipo de análisis hacer, lo que nos ahorra un número incontable de horas-hombre de desarrollo y análisis", dice El físico Alexander Radovich del Colegio de William y Mary, trabajando en el experimento de neutrinos Nova.

Radovic y un grupo de investigadores describieron el alcance de la aplicación actual y las perspectivas futuras de MO en la física de partículas en un resumen publicado en Nature en agosto de 2018.

Tamizar Big Data


Para procesar la gran cantidad de datos obtenidos en experimentos modernos, como los que van al LHC, los investigadores utilizan "disparadores", un equipo especial que funciona con el software, en tiempo real, decidiendo qué datos dejar para el análisis y cuáles eliminar. .

En un detector LHCb en un experimento que puede arrojar luz sobre por qué hay tanta materia que antimateria en el Universo, los algoritmos MO toman al menos el 70% de tales decisiones, dice Mike Williams, del Instituto de Tecnología de Massachusetts, trabajando para LHCb, uno de los autores. resumen mencionado. "MO desempeña un papel en casi todos los aspectos del trabajo con datos en un experimento, desde los desencadenantes hasta el análisis de los datos restantes", dice.

El aprendizaje automático muestra avances significativos en el análisis. Los enormes detectores ATLAS y CMS en el LHC, gracias a los cuales se descubrió la partícula de Higgs, tienen millones de sensores cuyas señales deben reunirse para obtener resultados significativos.

"Estas señales forman un espacio de datos complejo", dice Michael Kagan, del Laboratorio Nacional de Aceleración de Energía (SLAC) del Departamento de Energía de EE. UU., Un detector ATLAS, que contribuyó al informe. "Necesitamos entender la relación entre ellos para sacar conclusiones, por ejemplo, que un rastro de una partícula en un detector es dejado por un electrón, un fotón u otra cosa".

MO también es beneficioso para experimentos con neutrinos. NOva, que sirve Fermilab , está estudiando cómo los neutrinos se transfieren de una especie a otra cuando viajan por la Tierra. Estas oscilaciones de neutrinos son potencialmente capaces de revelar la existencia de nuevos tipos de neutrinos que, según algunas teorías, pueden convertirse en partículas de materia oscura. Los detectores NOva buscan partículas cargadas que aparecen cuando los neutrinos chocan con el material en el detector, y los algoritmos MO los determinan.

Del aprendizaje automático al aprendizaje profundo


El avance reciente en el campo de MO a menudo se llama aprendizaje profundo, y promete ampliar aún más el alcance de MO en física de partículas. Los médicos de cabecera generalmente significan el uso de redes neuronales: algoritmos informáticos con una arquitectura inspirada en una densa red densa de neuronas cerebrales humanas.

Estas redes neuronales aprenden de manera independiente ciertas tareas de análisis a través de la capacitación, cuando procesan datos de prueba, por ejemplo, de simulaciones, y reciben comentarios sobre la calidad de su trabajo.

Hasta hace poco, el éxito de las redes neuronales era limitado porque eran muy difíciles de entrenar, dijo el coautor Kazuhiro Terao, investigador de SLAC que trabaja en el experimento de neutrinos MicroBooNE, que estudia las oscilaciones de neutrinos como parte del programa a corto plazo de Fermilab. El experimento será parte de un futuro experimento de neutrinos subterráneos profundos . "Estas dificultades limitaron nuestra capacidad de trabajar con redes neuronales simples en un par de capas de profundidad", dice. "Gracias al avance de algoritmos y equipos informáticos, ahora sabemos mucho más sobre cómo crear y entrenar redes neuronales más capaces con cientos o miles de capas".

Muchos avances en la defensa civil son causados ​​por el desarrollo comercial de los gigantes de la tecnología y la explosión de datos que han creado en las últimas dos décadas. "Por ejemplo, NOva utiliza una red neuronal similar a la arquitectura GoogleNet", dice Radovic. "Esto ha mejorado el experimento en la medida en que podría haberse logrado solo aumentando la recopilación de datos en un 30%".

Suelo fructífero para la innovación


Los algoritmos de MoD se están volviendo más complejos y afinados día a día, abriendo oportunidades sin precedentes para resolver problemas en el campo de la física de partículas. Muchas de las nuevas tareas para las que se pueden aplicar están relacionadas con la visión por computadora, dice Kagan. "Esto es similar al reconocimiento facial, pero solo en la física de partículas las propiedades de las imágenes son más abstractas y complejas que los oídos o las narices".

Los datos de algunos experimentos, como NOvA y MicroBooNE, se pueden convertir fácilmente en imágenes reales, y la IA se puede usar de inmediato para determinar sus características. Por otro lado, las imágenes de los resultados de los experimentos en el LHC primero deben reconstruirse en base a un complejo conjunto de datos obtenidos de millones de sensores.

"Pero incluso si los datos no se ven como imágenes, aún podemos aplicar métodos desde la visión por computadora si procesamos los datos correctamente", dice Radovic.

Una de las áreas en las que este enfoque puede ser muy útil es el análisis de chorros de partículas que surgen en grandes cantidades en el LHC. Los chorros son chorros estrechos de partículas, cuyas huellas son extremadamente difíciles de separar entre sí. La tecnología de visión por computadora puede ayudar a comprender estos chorros.

Otra nueva aplicación de GO es la simulación de datos sobre física de partículas, que predicen, por ejemplo, lo que sucederá en colisiones de partículas en el LHC, que se pueden comparar con datos reales. Este tipo de simulaciones generalmente se ejecutan lentamente y requieren una potencia de procesamiento increíblemente grande. La IA podría realizar tales simulaciones mucho más rápido, lo que en última instancia podría convertirse en un complemento útil para los métodos de investigación tradicionales.

"Hace solo unos años, nadie podría haber pensado que las redes neuronales profundas podrían ser entrenadas para" ver "datos basados ​​en ruido aleatorio", dice Kagan. "Aunque este trabajo aún se encuentra en una etapa muy temprana, ya parece bastante prometedor y es probable que ayude a resolver problemas de datos en el futuro".

Los beneficios del escepticismo saludable


A pesar de los avances obvios, los entusiastas de MO a menudo encuentran escepticismo por parte de sus colegas, en particular, ya que los algoritmos de MO funcionan en su mayor parte como "cajas negras", y casi no proporcionan información sobre cómo llegaron a una cierta conclusión.

"El escepticismo es muy saludable", dice William. "Si utilizamos MO para los desencadenantes que eliminan algunos datos, como en LHCb, entonces debemos ser extremadamente cuidadosos con este problema y elevar el listón muy alto".

Por lo tanto, para fortalecer la posición de los MO en la física de partículas, es necesario tratar constantemente de mejorar la comprensión de cómo funcionan los algoritmos y, si es posible, hacer comparaciones cruzadas con datos reales.

"Necesitamos constantemente tratar de entender lo que hace un algoritmo informático y evaluar sus resultados", dice Terao. - Esto es cierto para cualquier algoritmo, no solo MO. Por lo tanto, el escepticismo no debe inhibir el progreso ".

El rápido avance ya permite a algunos investigadores soñar con lo que podría ser posible en el futuro cercano. "Hoy en día, utilizamos principalmente MO para buscar características en nuestros datos que pueden ayudarnos a responder algunas preguntas", dice Terao. "Y en unos diez años, los algoritmos MO pueden ser capaces de plantear sus propias preguntas de forma independiente y comprender que han descubierto una nueva física".

Source: https://habr.com/ru/post/es422173/


All Articles