
Gcam ha desarrollado una solución para la cámara Google Pixel y una serie de otros productos Alphabet holding relacionados con el procesamiento de imágenes de una forma u otra. La compañía apareció en 2011 cuando
Sebastian Trun , entonces jefe de
Google X , estaba buscando una cámara que pudiera instalarse en
Google Glass . Con estas gafas, la cámara permite tomar fotos "en primera persona" y compartir momentos brillantes con otras personas sin tener que comprar una cámara o un teléfono inteligente.
Esta característica puede ser útil para cualquier usuario, desde padres con niños pequeños hasta médicos que realizan cirugías. Sin embargo, para que las personas quieran usar Glass, las capacidades de disparo de las gafas deben estar al menos al nivel de los teléfonos inteligentes emblemáticos existentes.
En las primeras etapas del desarrollo de Glass, hubo problemas con la cámara. Era demasiado pequeña y carecía de luz, por lo que las fotos en la oscuridad o con alto contraste salieron de mala calidad. En comparación con los mismos teléfonos inteligentes, el sensor de la cámara resultó ser demasiado pequeño, lo que redujo aún más el rendimiento en condiciones de poca luz y rango dinámico. Además, las gafas tenían una potencia de procesamiento y batería muy limitadas.
Dado que las gafas deberían ser ligeras y adecuadas para el uso constante, no es una opción encontrar una cámara más grande para resolver este problema. Por lo tanto, el equipo comenzó a buscar otras formas. Luego, los creadores se hicieron la pregunta: ¿qué pasa si, en lugar de tratar de resolver el problema a nivel de hardware, intentan hacerlo utilizando productos de software?

La compañía involucró el desarrollo de Google Glass, Marc Levoy, profesor de ciencias de la computación en
la Universidad de Stanford , quien también es experto en
fotografía de computación . Está particularmente interesado en las tecnologías de captura de imágenes y procesamiento de imágenes basadas en software.
En 2011, Livoy creó un equipo en Google X, conocido como Gcam. Su tarea consistía en mejorar las fotografías en dispositivos móviles utilizando las técnicas informáticas de la fotografía. En busca de una solución a los problemas planteados por el proyecto Glass, el equipo de Gcam exploró un método llamado
Image Fusion , que toma una serie rápida de fotografías y luego las combina para crear una mejor toma. Esta tecnología "extrajo" detalles en imágenes con poca luz. Y en general, las fotos eran más brillantes y nítidas.
Image Fusion debutó en Glass en 2013, y pronto quedó claro que la tecnología podría aplicarse a productos de otras líneas. A medida que las personas comenzaron a tomar imágenes con más frecuencia para compartir puntos importantes con otros, el software en el que trabajaban las cámaras debería proporcionar una imagen hermosa independientemente de la iluminación.
La siguiente versión de Image Fusion recibió el nuevo nombre HDR +, fue más allá del alcance del proyecto Glass y se lanzó en la aplicación para la cámara de Android en Nexus 5, y luego en Nexus 6.
Hoy, esta característica se ha extendido entre muchas aplicaciones y productos, y el equipo de Gcam se mudó a Google Research en 2015. Actualmente, Gcam está desarrollando tecnología para Android, YouTube, Google Photos y Jump VR. Algunas de las soluciones del equipo están incluidas en
Lens Blur , una aplicación para la cámara de Google, así como en un software que
une videos en panoramas en Jump Virtual Reality.
No hace mucho tiempo, la tecnología HDR + ingresó por defecto al teléfono inteligente Google Pixel como modo. El equipo de DxOMark, una de las clasificaciones de cámara más objetivas,
dijo que Pixel era "la mejor cámara para teléfonos inteligentes que se haya fabricado".
En 2016, reflexionando sobre el desarrollo posterior del proyecto, Marc Livoy dijo: “Tomó cinco años hacer todo realmente bien. Somos afortunados de que Google X haya dirigido a nuestro equipo para el desarrollo y la independencia a largo plazo ".
¿Qué pasará después con Gcam? Marc Livoy, quien comenzó su carrera con el desarrollo del sistema de animación animada utilizado por Hanna-Barbera, está encantado con el futuro equipo. Una de las áreas donde se implementará en el futuro es la tecnología de aprendizaje automático.
“Hay muchos productos que realmente cambian la percepción y la sensación de la imagen. Incluso puede ser tan simple a primera vista, como un filtro para ajustar el balance de blancos. O aquellos que pueden hacer algo con el fondo: oscurecerlo, aclararlo o estilizarlo. Estamos en el mejor lugar del mundo en términos de desarrollo de tecnología en el campo del aprendizaje automático, por lo que tenemos una oportunidad real de combinar el mundo creativo con el mundo de la fotografía computacional ”, dijo Livoy.