Na semana passada, minha equipe organizou um evento emocionante no Four Seasons Hotel em Houston, Texas. Foi dedicado à continuação da tendência de desenvolver relações mais próximas entre os participantes. Foi um evento que reuniu usuários, parceiros e clientes. . Além disso, o evento contou com a presença de muitos representantes da Hitachi. Ao organizar essa empresa, estabelecemos dois objetivos:
- Fomentar o interesse em pesquisas em andamento sobre questões emergentes da indústria;
- Verifique as áreas em que já estamos trabalhando e desenvolvendo, bem como seus ajustes com base no feedback do usuário.
Doug Gibson e Matt Hall ( Agile Geoscience ) começaram com uma discussão sobre o estado da indústria e vários problemas associados ao gerenciamento e processamento de dados sísmicos. Foi bastante inspirador e certamente revelador ouvir como os volumes de investimentos são distribuídos entre produção, transporte e processamento. Mais recentemente, a maior parte do investimento foi para a produção, que já foi o rei em termos de quantidade de fundos consumidos, mas gradualmente os investimentos são transferidos para processamento e transporte. Matt descreveu seu fascínio pela observação literal da evolução geológica da Terra usando dados sísmicos.

Em geral, acredito que nosso evento pode ser considerado como a "primeira publicação" do trabalho que iniciamos há vários anos. Continuaremos a informá-lo sobre várias realizações e sucessos em nosso trabalho nesta área. Além disso, inspirados em uma performance de Matt Hall, realizamos uma série de sessões que resultaram em uma troca de experiências muito valiosa.

Periférica (limite) ou computação em nuvem?
Em uma das sessões, Doug e Ravi (Hitachi Research em Santa Clara) discutiram sobre como transferir algumas análises para a computação periférica para uma tomada de decisão mais rápida e precisa. Há muitas razões para isso, e acho que as três mais significativas são canais estreitos de transmissão de dados, grandes quantidades de dados (tanto em termos de taxa de chegada, volume e variedade), quanto cronogramas rigorosos de tomada de decisão. Apesar de alguns processos (especialmente os geológicos) levarem semanas, meses ou anos para serem concluídos, ainda existem muitos casos nesse setor em que a urgência é de particular importância. Nesse caso, a incapacidade de acessar uma nuvem centralizada pode ter consequências desastrosas! Em particular, questões relacionadas a SMS (saúde, segurança e meio ambiente), bem como questões relacionadas à produção de petróleo e gás, requerem análise e tomada de decisão rápidas. Talvez a melhor maneira seja mostrar isso usando números diferentes como exemplos - deixe detalhes específicos permanecerem anônimos para "proteger os inocentes".
- As redes sem fio de última milha estão sendo atualizadas em locais como a bacia de Perm, com a passagem de canais do satélite (onde a velocidade foi medida em kbit / s) para um canal de 10 Mbps usando 4G / LTE ou uma faixa de frequência não licenciada. Mesmo essas redes atualizadas podem não ser capazes de lidar com colisões com terabytes e petabytes de dados na fronteira.
- Os sistemas de sensores de empresas como a FOTECH, que combinam com muitas outras plataformas de sensores novas e de longa duração, são capazes de produzir vários terabytes por dia. Câmeras digitais adicionais, instaladas para monitoramento de segurança e proteção contra roubo, também geram uma grande quantidade de dados, o que significa que na fronteira é formado um conjunto completo de categorias de big data (volume, velocidade de chegada e variedade).
- No caso de sistemas sísmicos usados para coletar dados, os projetos incluem sistemas convergidos colocados em contêineres ISO para coletar e reformatar dados sísmicos potencialmente com até 10 petabytes de dados. Devido aos locais remotos em que esses sistemas de inteligência operam, há uma grave falta de largura de banda para mover dados da última milha para o datacenter nas redes. Portanto, as empresas de serviços literalmente enviam dados da fronteira para o datacenter em fita, dispositivos ópticos ou de armazenamento magnético durável.
- Os operadores das fábricas brownfield, onde milhares de eventos e dezenas de “alarmes vermelhos” acontecem diariamente, querem trabalhar de maneira mais otimizada e estável. No entanto, redes com baixa taxa de dados e a quase completa ausência de instalações de armazenamento para coletar dados para análise em fábricas sugerem que algo mais fundamental é necessário antes de iniciar uma análise básica das operações atuais.
Isso, é claro, me faz pensar que, enquanto os provedores de sistemas de nuvem pública estão tentando transferir todos esses dados para suas plataformas, há uma dura realidade que você precisa lidar com isso. Talvez a melhor maneira de classificar esse problema seja tentar empurrar o elefante através de um canudo! No entanto, muitos dos méritos da nuvem são essenciais. Então o que podemos fazer?
Transição de nuvem periférica
Obviamente, o mercado da Hitachi já possui soluções otimizadas (específicas do setor) que enriquecem os dados na fronteira, analisam e compactam até a quantidade mínima de dados utilizável e também fornecem sistemas de consultoria de negócios que podem melhorar os processos de computação periférica. No entanto, minha conclusão feita na semana passada é que as soluções para esses problemas complexos não se referem tanto ao widget que você traz para a mesa, mas à abordagem para resolvê-lo. Esse é realmente o espírito da plataforma Lumada do Hitachi Insight Group, pois inclui métodos para atrair usuários, ecossistemas e, se necessário, fornece ferramentas de discussão. Fiquei muito feliz em voltar a resolver problemas (em vez de vender produtos) porque Matt Hall disse: "Fiquei feliz em ver que os funcionários da Hitachi começaram a entender corretamente a extensão do problema", quando fechamos nossa cúpula.
Assim, o O&G (indústria de petróleo e gás) pode ser um exemplo vivo que mostra a necessidade de computação periférica? Parece que, dados os problemas descobertos durante nossa cúpula e outras interações do setor, a resposta provável é sim. Talvez a razão para isso seja tão clara, porque a computação periférica, o direcionamento do setor e uma mistura de padrões de design baseados em nuvem são evidentes à medida que as pilhas são atualizadas. Eu acredito que, neste caso, a questão de "como" merece atenção.
Usando a citação de Matt do último parágrafo, entendemos como levar o princípio da computação em nuvem para a computação periférica. De fato, para esse setor, devemos realizar contatos "antiquados" e às vezes pessoais com pessoas que participam de várias partes do ecossistema do setor de petróleo e gás, como geólogos, engenheiros de perfuração, geofísicos e assim por diante. Dadas essas interações que precisam ser abordadas, seu escopo e profundidade se tornam mais óbvios e até convincentes. Então, quando elaborarmos planos de implementação e darmos vida a eles, decidiremos construir sistemas em nuvem periféricos.
No entanto, se nos sentamos no centro, apenas lemos e apresentamos esses problemas, não teremos compreensão e simpatia suficientes para realmente fazer o nosso melhor. Portanto, mais uma vez, sim, o petróleo e o gás gerarão sistemas periféricos de nuvem, mas entender as reais necessidades dos usuários no local ajudará a determinar quais problemas são de importância primária.