
A Gcam desenvolveu uma solução para a câmera do Google Pixel e vários outros produtos da Alphabet, relacionados ao processamento de imagens, de uma maneira ou de outra. A empresa apareceu em 2011 quando
Sebastian Trun , então chefe do
Google X , procurava uma câmera que pudesse ser instalada no
Google Glass . Com esses óculos, a câmera possibilita tirar fotos “na primeira pessoa” e compartilhar momentos claros com outras pessoas sem ter que obter uma câmera ou smartphone.
Esse recurso pode ser útil para qualquer usuário, de pais com filhos pequenos a médicos que realizam cirurgias. No entanto, para que as pessoas queiram usar o Glass, os recursos de fotografia dos óculos devem ser pelo menos no nível dos principais smartphones existentes.
Nos primeiros estágios do desenvolvimento do Glass, houve problemas com a câmera. Ela era pequena demais e carecia de luz; portanto, as fotos no escuro ou em alto contraste eram de baixa qualidade. Comparado com os mesmos smartphones, o sensor na câmera acabou sendo muito pequeno, o que reduziu ainda mais o desempenho em condições de pouca luz e faixa dinâmica. Além disso, os óculos tinham poder de processamento e bateria muito limitados.
Como os óculos devem ser leves e adequados para uso constante, encontrar uma câmera maior para resolver esse problema não é uma opção. Portanto, a equipe começou a procurar outras maneiras. Depois, os criadores se perguntaram: e se, em vez de tentar resolver o problema no nível do hardware, tentassem fazê-lo usando produtos de software?

A empresa envolveu o desenvolvimento do Google Glass, Marc Levoy, professor de ciência da computação na
Universidade de Stanford , que também é especialista na área de
fotografia computacional . Ele está particularmente interessado nas tecnologias de captura e processamento de imagem baseadas em software.
Em 2011, a Livoy criou uma equipe no Google X, conhecida como Gcam. Sua tarefa era melhorar as fotografias em dispositivos móveis usando as técnicas de computação da fotografia. Em busca de uma solução para os problemas apresentados pelo projeto Glass, a equipe do Gcam explorou um método chamado
Image Fusion , que tira uma rápida série de fotografias e as combina para criar uma melhor foto.Esta tecnologia "puxou" detalhes nas fotos com pouca iluminação. E, em geral, as fotos eram mais claras e nítidas.
O Image Fusion estreou no Glass em 2013 e logo ficou claro que a tecnologia poderia ser aplicada a produtos de outras linhas. Quando as pessoas começaram a tirar fotos com mais frequência, a fim de compartilhar pontos importantes com outras pessoas, o software no qual as câmeras trabalhavam deve fornecer uma imagem bonita, independentemente da iluminação.
A próxima versão do Image Fusion recebeu o novo nome HDR +, foi além do escopo do projeto Glass e foi lançada no aplicativo para a câmera Android no Nexus 5 e depois no Nexus 6.
Hoje, esse recurso se espalhou entre muitos aplicativos e produtos e a equipe do Gcam mudou para o Google Research em 2015. Atualmente, a Gcam está desenvolvendo tecnologia para Android, YouTube, Google Fotos e Jump VR. Algumas das soluções da equipe estão incluídas no
Lens Blur , um aplicativo para a câmera do Google, além de um software que
agrupa vídeos em panoramas no Jump Virtual Reality.
Há pouco tempo, a tecnologia HDR +, por padrão, entrou no smartphone Google Pixel como um modo. A equipe do DxOMark, uma das classificações de câmera mais objetivas,
disse que o Pixel é "a melhor câmera para smartphone já feita".
Em 2016, refletindo sobre o desenvolvimento do projeto, Marc Livoy disse: “Foram necessários cinco anos para fazer tudo realmente certo. Temos a sorte de que o Google X deu à nossa equipe orientação para desenvolvimento e independência a longo prazo ".
O que acontecerá a seguir com o Gcam? Marc Livoy, que iniciou sua carreira com o desenvolvimento do sistema de animação animado usado por Hanna-Barbera, está encantado com a futura equipe. Uma das áreas em que será implementada no futuro é a tecnologia de aprendizado de máquina.
“Existem muitos produtos que realmente alteram a percepção e a sensação da imagem. Pode até ser tão simples, à primeira vista, coisas como um filtro para ajustar o balanço de branco. Ou aqueles que podem fazer algo com o fundo - escurecer, clarear ou estilizar. Estamos no melhor lugar do mundo em termos de desenvolvimento de tecnologia no campo de aprendizado de máquina, por isso temos uma oportunidade real de combinar o mundo criativo com o mundo da fotografia computacional ”, disse Livoy.