Wie Gcam den HDR + -Modus für Smartphone-Kameras erstellt hat

Bild

Gcam hat eine Lösung für die Google Pixel-Kamera und eine Reihe anderer Alphabet-Produkte entwickelt, die sich auf die eine oder andere Weise auf die Bildverarbeitung beziehen. Das Unternehmen erschien 2011, als Sebastian Trun , damals Leiter von Google X , nach einer Kamera suchte, die in Google Glass installiert werden konnte. Mit dieser Brille ermöglicht die Kamera das Fotografieren „in der ersten Person“ und das Teilen heller Momente mit anderen, ohne dass eine Kamera oder ein Smartphone erforderlich ist.

Diese Funktion kann für jeden Benutzer nützlich sein, von Eltern mit kleinen Kindern bis zu Ärzten, die Operationen durchführen. Für Benutzer, die Glass verwenden möchten, sollten die Aufnahmefunktionen von Brillen jedoch mindestens auf dem Niveau der vorhandenen Flaggschiff-Smartphones liegen.

In den ersten Phasen der Glasentwicklung gab es Probleme mit der Kamera. Sie war zu klein und hatte kein Licht, so dass Fotos im Dunkeln oder mit hohem Kontrast von schlechter Qualität waren. Im Vergleich zu denselben Smartphones erwies sich der Sensor in der Kamera als zu klein, was die Leistung bei schlechten Lichtverhältnissen und im Dynamikbereich weiter verringerte. Darüber hinaus hatten die Gläser eine sehr begrenzte Verarbeitungsleistung und Batterie.

Da sich herausstellen sollte, dass die Brille leicht und für ständigen Verschleiß geeignet ist, ist es keine Option, eine größere Kamera zu finden, um dieses Problem zu lösen. Daher begann das Team nach anderen Wegen zu suchen. Dann stellten sich die Entwickler die Frage: Was ist, wenn Sie versuchen, das Problem auf Hardwareebene zu lösen, indem Sie versuchen, es mit Softwareprodukten zu tun?

Bild

Das Unternehmen war an der Entwicklung von Google Glass beteiligt, Marc Levoy, Dozent für Informatik an der Stanford University , der auch Experte auf dem Gebiet der Computerfotografie ist . Er interessiert sich insbesondere für softwarebasierte Erfassungs- und Bildverarbeitungstechnologien.

Im Jahr 2011 gründete Livoy in Google X ein Team namens Gcam. Ihre Aufgabe war es, Fotos auf Mobilgeräten mithilfe der Computertechniken der Fotografie zu verbessern. Auf der Suche nach einer Lösung für die Probleme des Glass-Projekts untersuchte das Gcam-Team eine Methode namens Image Fusion , bei der eine schnelle Serie von Fotos aufgenommen und diese dann kombiniert werden, um eine bessere Aufnahme zu erzielen. Diese Technologie „zog“ Details in Bildern mit gedämpftem Licht. Und im Allgemeinen waren die Fotos heller und schärfer.

Image Fusion debütierte 2013 in Glass und es wurde schnell klar, dass die Technologie auf Produkte anderer Linien angewendet werden kann. Da die Leute häufiger Bilder machten, um wichtige Punkte mit anderen zu teilen, sollte die Software, an der die Kameras arbeiteten, unabhängig von der Beleuchtung ein schönes Bild liefern.

Die nächste Version von Image Fusion erhielt den neuen Namen HDR +, ging über den Rahmen des Glass-Projekts hinaus und wurde in der Anwendung für die Android-Kamera in Nexus 5 und dann in Nexus 6 gestartet.

Heute hat sich diese Funktion auf viele Anwendungen und Produkte ausgeweitet, und das Gcam-Team ist 2015 zu Google Research gewechselt. Gcam entwickelt derzeit Technologien für Android, YouTube, Google Fotos und Jump VR. Einige der Lösungen des Teams sind in Lens Blur , einer App für die Google-Kamera, sowie in einer Software enthalten, mit der Videos in Jump Virtual Reality in Panoramen zusammengefügt werden.

Vor nicht allzu langer Zeit hat die HDR + -Technologie standardmäßig das Google Pixel-Smartphone als Modus aktiviert. Das DxOMark-Team, eine der objektivsten Kamerabewertungen, sagte, die Pixel sei "die beste Smartphone-Kamera, die jemals hergestellt wurde".

Im Jahr 2016 sagte Marc Livoy über die weitere Entwicklung des Projekts: „Es hat fünf Jahre gedauert, bis alles richtig lief. Wir haben das Glück, dass Google X unserem Team die Richtung für langfristige Entwicklung und Unabhängigkeit gegeben hat. "

Was wird als nächstes mit Gcam passieren? Marc Livoy, der seine Karriere mit der Entwicklung des von Hanna-Barbera verwendeten animierten Animationssystems begann, ist vom zukünftigen Team begeistert. Einer der Bereiche, in denen es in Zukunft implementiert werden soll, ist die Technologie des maschinellen Lernens.

„Es gibt viele Produkte, die die Wahrnehmung und das Gefühl des Bildes tatsächlich verändern. Auf den ersten Blick kann es sogar so einfach sein, den Weißabgleich anzupassen. Oder diejenigen, die etwas mit dem Hintergrund anfangen können - ihn abdunkeln, aufhellen oder stilisieren. Wir sind in Bezug auf die Entwicklung von Technologien im Bereich des maschinellen Lernens an der besten Stelle der Welt, sodass wir eine echte Chance haben, die kreative Welt mit der Welt der Computerfotografie zu verbinden “, sagt Livoy.

Source: https://habr.com/ru/post/de402731/


All Articles