Die Pixel-2 Kamera ‘ s Geheimwaffe: Eine Google-ausgelegt, SoC ‘Pixel Visual Core”

0
21

Wir haben mit dem Pixel 2 und die größeren Geschwister die Pixel-2 XL-für eine Weile. Noch einmal, die Google-Handys haben einige fantastische Foto-Funktionen. Was wir sahen, sowohl von der 12.2 MP Kamera hinten und 8MP front-Verkleidung ist einfach so viel besser als jedes andere Handy, das wir je benutzt habe. Und wir haben eine Menge von Ihnen.

Lesen Sie die Google-Pixel 2 abgeben

Und das ist, bevor Google ermöglicht seine Geheimwaffe. Google hat eine custom imaging – -konzentriert-SoC (system on chip) in der Pixel-2, und es heißt, Pixel, Visual Core.

Wir haben nicht alle die details, Google ist nicht bereit, Sie zu teilen und vielleicht auch gar nicht bewusst, was diese custom-chip ist in der Lage, noch. Was wir wissen ist, dass die Pixel-Visual-Core baut auf einer von Google konzipierte acht-Kern – Image Processing Unit. Diese IPU ausführen können drei Billionen Operationen pro Sekunde laufen, während aus dem winzigen Akku in einem Handy.

Interessant ist, das Pixel-Visual-Core gar nicht aktiviert beim Start auf der Pixel-2 und 2 XL — wir sind nur jetzt zu sehen, eine “frühe version” der es mit der Android-8.1 Developer Preview 2. Mit der Pixel-Visual-Kern ermöglichten schließlich, Google HDR+ – Routinen werden verarbeitet mit diesem IPU, und es läuft zu fünf mal schneller und mit weniger als einem Zehntel der Energie, als es wäre, wenn es lief durch die standard-image-Prozessor der Snapdragon-835.

Google sagt, das ist möglich, weil, wie gut software und hardware aufeinander abgestimmt worden. Die software auf der Pixel-2 controls “viele mehr” details der hardware, als würden Sie in einem typischen Prozessor für software-Anordnung. Von der übergabe aus-Steuerung software, die hardware kann mittlerweile viel mehr einfach und effizient.

Google ist ein software-Unternehmen in Erster Linie. Es ist kein Wunder, dass seine erste custom-mobile-SoC nutzt die software die Art und Weise andere Unternehmen nutzen die hardware.

Das bedeutet natürlich auch, die software wird mehr und mehr Komplex. Anstelle der Verwendung von standard-Methoden des code zu schreiben, bauen Sie es in ein fertiges Produkt, und dann versuchen, alles zu verwalten, nach all der Arbeit fertig ist, Google hat sich zu der Maschine Programmieren lernen Sprachen. Mit Metalldampflampen, die für die eigentliche Bildverarbeitung und TensorFlow für die machine-learning-Komponenten selbst, Google aufgebaut hat, seine eigenen software-compiler kann optimieren, die fertige Produktion code in die software ein, die speziell für die hardware beteiligt.

Auch wenn es noch nicht bereit war am Start und nahm sich extra Zeit, um zu aktivieren, jetzt ist der einzige Teil der Kamera Erfahrung mit den Pixel Visuelle Herzstück ist die Kamera, die HDR+ – Funktion. Es ist schon sehr gut, das ist, was als Nächstes kommt.

HDR+ ist nur der Anfang für die Pixel-Visual-Kern.

Mit der Android-8.1 Developer Preview 2, ist die Pixel-Visual-Core eröffnet, als Entwickler-option. Das Ziel ist, alle Drittanbieter-apps Zugriff über die Android-Kamera-API. Dies gibt jedem Entwickler ein Weg, um der Nutzung von Google-HDR+ und die Pixel-Visual-Core, und wir erwarten zu sehen, einige wirklich große Dinge.

Für die eine Letzte Sache, die wir immer gerne hören, Google sagt, wir sollten daran denken, die Pixel-Visual-Kern programmierbar ist und Sie bereits den nächsten Satz von Anwendungen, die nutzen Ihre macht. Google fügt mehr Fähigkeiten, um Ihrer neuen SoC, der Pixel-2 und 2 XL wird immer besser und in der Lage sein, mehr zu tun. Neue imaging und machine-learning-Anwendungen kommen während der gesamten Lebensdauer der Pixel 2, und wir sind bereit für Sie.