La industria del petróleo y el gas como ejemplo para los sistemas de nubes periféricas.

La semana pasada, mi equipo organizó un evento emocionante en el Hotel Four Seasons en Houston, Texas. Se dedicó a la continuación de la tendencia a desarrollar relaciones más estrechas entre los participantes. Fue un evento que reunió a usuarios, socios y clientes. . Además, al evento asistieron muchos representantes de Hitachi. Al organizar esta empresa, nos fijamos dos objetivos:


  1. Fomentar el interés en la investigación en curso sobre temas emergentes de la industria;
  2. Compruebe las áreas en las que ya estamos trabajando y desarrollando, así como su ajuste en función de los comentarios de los usuarios.

Doug Gibson y Matt Hall ( Agile Geoscience ) comenzaron con una discusión sobre el estado de la industria y varios problemas asociados con el manejo y procesamiento de datos sísmicos. Fue bastante inspirador y ciertamente revelador escuchar cómo los volúmenes de inversiones se distribuyen entre la producción, el transporte y el procesamiento. Más recientemente, la mayor parte de la inversión se destinó a la producción, que una vez fue el rey en términos de la cantidad de fondos consumidos, pero gradualmente las inversiones se transfieren tanto al procesamiento como al transporte. Matt describió su fascinación con la observación literal de la evolución geológica de la Tierra utilizando datos sísmicos.




En general, creo que nuestro evento puede considerarse como la "primera publicación" del trabajo que comenzamos hace varios años. Continuaremos informándole sobre diversos logros y éxitos en nuestro trabajo en esta área. Además, inspirados en una actuación de Matt Hall, realizamos una serie de sesiones que resultaron en un intercambio de experiencias muy valioso.




Periférico (límite) o computación en la nube?


En una de las sesiones, Doug y Ravi (Hitachi Research en Santa Clara) tuvieron una discusión sobre cómo transferir algunos análisis a la computación periférica para una toma de decisiones más rápida y precisa. Hay muchas razones para esto, y creo que las tres más importantes son canales de transmisión de datos estrechos, grandes cantidades de datos (tanto en términos de velocidad de llegada, volumen y variedad), como calendarios ajustados de toma de decisiones. A pesar de que algunos procesos (especialmente los geológicos) pueden tardar semanas, meses o años en completarse, todavía hay muchos casos en esta industria donde la urgencia es de particular importancia. En este caso, ¡la imposibilidad de acceder a una nube centralizada puede tener consecuencias desastrosas! En particular, los problemas relacionados con HSE (salud, seguridad y medio ambiente), así como los problemas relacionados con la producción de petróleo y gas, requieren un análisis rápido y una toma de decisiones. Quizás la mejor manera es mostrar esto usando diferentes números como ejemplos: deje que los detalles específicos permanezcan en el anonimato para "proteger a los inocentes".


  • Las redes inalámbricas de la última milla se están actualizando en lugares como la cuenca Perm, con el paso de canales desde el satélite (donde se midió la velocidad en kbit / s) a un canal de 10 Mbps usando 4G / LTE o un rango de frecuencia sin licencia. Incluso estas redes actualizadas pueden no ser capaces de hacer frente a colisiones con terabytes y petabytes de datos en la frontera.
  • Los sistemas de sensores de compañías como FOTECH, que se combinan con muchas otras plataformas de sensores nuevas y de larga duración, son capaces de producir varios terabytes por día. Las cámaras digitales adicionales, que están instaladas para monitoreo de seguridad y protección antirrobo, también generan una gran cantidad de datos, lo que significa que en la frontera se forma un conjunto completo de categorías de big data (volumen, velocidad de llegada y variedad).
  • En el caso de los sistemas sísmicos utilizados para recopilar datos, los proyectos incluyen sistemas convergentes colocados en contenedores ISO para recopilar y reformatear datos sísmicos potencialmente hasta 10 petabytes de datos. Debido a las ubicaciones remotas donde operan estos sistemas de inteligencia, existe una grave falta de ancho de banda para mover datos desde el límite de la última milla hasta el centro de datos a través de las redes. Por lo tanto, las compañías de servicios envían literalmente datos desde el borde al centro de datos en cinta, dispositivos ópticos o dispositivos de almacenamiento magnético duraderos.
  • Los operadores de las fábricas brownfield, donde se realizan miles de eventos y docenas de "alarmas rojas" diariamente, quieren trabajar de manera más óptima y estable. Sin embargo, las redes con una velocidad de datos baja y la ausencia casi completa de instalaciones de almacenamiento para recopilar datos para el análisis en las fábricas sugieren que se requiere algo más fundamental antes de comenzar un análisis básico de las operaciones actuales.

Esto, por supuesto, me hace pensar que, si bien los proveedores de sistemas de nube pública están tratando de transferir todos estos datos a sus plataformas, hay una dura realidad que debes tratar de enfrentar. ¡Quizás la mejor manera de clasificar este problema es tratar de empujar al elefante a través de una pajita! Sin embargo, muchos de los méritos de la nube son esenciales. Entonces, ¿qué podemos hacer?


Transición de la nube periférica


Por supuesto, el mercado de Hitachi ya tiene soluciones optimizadas (específicas de la industria) que enriquecen los datos en la frontera, los analizan y comprimen a la cantidad mínima de datos utilizables, y también proporcionan sistemas de asesoramiento empresarial que pueden mejorar los procesos informáticos periféricos. Sin embargo, mi conclusión la semana pasada es que las soluciones a estos problemas complejos no se refieren tanto al widget que traes a la mesa, sino al enfoque para resolver el problema. Este es realmente el espíritu de la plataforma Lumada de Hitachi Insight Group, ya que incluye métodos para atraer usuarios, ecosistemas y, si es necesario, proporciona herramientas de debate. Estaba muy contento de volver a resolver problemas (en lugar de vender productos) porque Matt Hall dijo: "Me alegré de ver que los empleados de Hitachi comenzaron a comprender correctamente el alcance del problema", cuando cerramos nuestra cumbre.


Entonces, ¿puede O&G (industria del petróleo y el gas) ser un ejemplo vivo que muestre la necesidad de computación periférica? Parece que, dados los problemas descubiertos durante nuestra cumbre, así como otras interacciones de la industria, la respuesta probable es sí. Quizás la razón de esto sea tan clara, porque la computación periférica, la focalización de la industria y una combinación de patrones de diseño basados ​​en la nube son evidentes a medida que se actualizan las pilas. Creo que en este caso la cuestión de "cómo" merece atención.

Usando la cita de Matt del último párrafo, entendemos cómo llevar el principio de la computación en la nube a la computación periférica. De hecho, para esta industria, debemos realizar contactos “anticuados” y, a veces, personales con personas que participan en diversas partes del ecosistema de la industria del petróleo y el gas, como geólogos, ingenieros de perforación, geofísicos, etc. Dadas estas interacciones que deben abordarse, su alcance y profundidad se vuelven más obvias e incluso convincentes. Luego, cuando elaboremos planes de implementación y los hagamos realidad, decidiremos construir sistemas de nube periférica.

Sin embargo, si nos sentamos en el centro, solo leemos y presentamos estos problemas, no tendremos suficiente comprensión y simpatía para realmente dar lo mejor de nosotros. Entonces, una vez más, sí, el petróleo y el gas generarán sistemas de nubes periféricas, pero es la comprensión de las necesidades reales de los usuarios en el terreno lo que nos ayudará a determinar qué problemas son de importancia primordial.

Source: https://habr.com/ru/post/446388/


All Articles