Artikel

Hier ist der Grund, warum der Neural Core-Chip des Pixel 4 ein Spielveränderer für die Fotografie sein könnte

protection click fraud

Es gibt einen Grund, warum die Pixel 3 wurde als das beste Kamerahandy gelobt. Google verwendet Softwarealgorithmen in seinem HDR + -Paket, um Pixel zu verarbeiten und in Kombination mit ein wenig Beim maschinellen Lernen können einige wirklich spektakuläre Fotos von einem Telefon stammen, das möglicherweise Standardprobleme aufweist Hardware.

Um diese Algorithmen zu verarbeiten, verwendete Google einen speziellen Prozessor namens Pixel Visual Core, einen Chip, den wir 2017 erstmals mit dem Pixel 2 gesehen haben. In diesem Jahr scheint es, dass Google hat ersetzte den Pixel VIsual Core durch einen sogenannten Pixel Neural Core.

Google verwendet möglicherweise neuronale Netzwerktechniken, um Fotos auf dem Pixel 4 noch besser zu machen.

Das Original Pixel Visual Core wurde entwickelt, um die Algorithmen der HDR + -Bildverarbeitung von Google zu unterstützen, mit denen mit Pixel 2 und Pixel 3 aufgenommene Fotos so gut aussehen. Es wurden maschinelles Lernen und sogenannte Computerfotografie verwendet, um die Teile eines Fotos, die nicht ganz perfekt waren, intelligent auszufüllen. Der Effekt war wirklich gut; Damit kann ein Telefon mit einem handelsüblichen Kamerasensor Bilder so gut oder besser aufnehmen als jedes andere verfügbare Telefon.

Verizon bietet das Pixel 4a für nur 10 US-Dollar pro Monat auf neuen Unlimited-Linien an

Wenn der Pixel Neural Core das ist, was wir glauben, ist der Pixel 4 wird erneut um den Spitzenplatz in der Smartphone-Fotografie kämpfen. Hier ist der Grund.

Neuronale Netze

Es scheint, dass Google einen Chip verwendet, der einer neuronalen Netzwerktechnik nachempfunden ist, um die Bildverarbeitung in seinem Pixel-Telefon für 2019 zu verbessern. Ein neuronales Netzwerk ist etwas, das Sie vielleicht schon ein oder zwei Mal erwähnt haben, aber das Konzept wird nicht sehr oft erklärt. Stattdessen kann es wie ein Computer-Hokuspokus auf Google-Ebene erscheinen, der Magie ähnelt. Es ist nicht so, und die Idee hinter einem neuronalen Netzwerk ist eigentlich ziemlich einfach, den Kopf herumzureißen.

Neuronale Netze sammeln und verarbeiten Informationen auf eine Weise, die dem menschlichen Gehirn ähnelt.

Neuronale Netze sind Gruppen von Algorithmen, die dem menschlichen Gehirn nachempfunden sind. Nicht wie ein Gehirn aussieht oder überhaupt funktioniert, sondern wie es Informationen verarbeitet. Ein neuronales Netzwerk erfasst sensorische Daten über die sogenannte Maschinenwahrnehmung - Daten, die wie ein Kamerasensor über externe Sensoren erfasst und übertragen werden - und erkennt Muster.

Diese Muster sind Zahlen, die als Vektoren bezeichnet werden. Alle externen Daten aus der "realen" Welt, einschließlich Bilder, Töne und Text, werden in einen Vektor übersetzt und als Datensätze klassifiziert und katalogisiert. Stellen Sie sich ein neuronales Netzwerk als zusätzliche Schicht über den auf einem Computer oder Telefon gespeicherten Dingen und dieser Schicht vor enthält Daten darüber, was das alles bedeutet - wie es aussieht, wie es sich anhört, was es sagt und wann es passiert. Sobald ein Katalog erstellt wurde, können neue Daten klassifiziert und mit diesen verglichen werden.

Ein Beispiel aus der Praxis hilft dabei, alles sinnvoller zu machen. NVIDIA stellt Prozessoren her, die neuronale Netze sehr gut ausführen können. Das Unternehmen verbrachte viel Zeit Scannen und Kopieren von Fotos von Katzen in das Netzwerk, und sobald der Cluster von Computern über das neuronale Netzwerk fertig war, konnte er eine Katze auf jedem Foto identifizieren, auf dem sich eine befand. Kleine Katzen, große Katzen, weiße Katzen, Kalikokatzen, sogar Berglöwen oder Tiger waren Katzen, weil das neuronale Netzwerk so viele Daten darüber hatte, was eine Katze "war".

In Anbetracht dieses Beispiels ist es nicht schwer zu verstehen, warum Google diese Leistung in einem Telefon nutzen möchte. Ein neuronaler Kern, der mit einem großen Datenkatalog verbunden werden kann, kann erkennen, was Ihr Kameraobjektiv sieht, und dann entscheiden, was zu tun ist. Möglicherweise könnten die Daten darüber, was es sieht und was es erwartet, an einen Bildverarbeitungsalgorithmus übergeben werden. Oder vielleicht könnten die gleichen Daten an Assistant weitergeleitet werden, um einen Pullover oder Apfel zu identifizieren. Oder Sie könnten geschriebenen Text noch schneller und genauer übersetzen als Google es jetzt tut.

Es ist nicht schwer zu glauben, dass Google einen kleinen Chip entwickeln könnte, der mit einem neuronalen Netzwerk und dem Bildprozessor in einem Telefon verbunden werden kann, und es ist leicht zu erkennen, warum es dies tun möchte. Wir sind uns nicht sicher, was genau der Pixel Neural Core ist oder wofür er verwendet werden könnte, aber wir werden sicherlich mehr wissen, sobald wir das Telefon und die tatsächlichen Details sehen, wenn es "offiziell" angekündigt wird.

instagram story viewer