Articolo

Ecco perché il chip Neural Core di Pixel 4 potrebbe cambiare il gioco della fotografia

protection click fraud

C'è un motivo per cui il file Pixel 3 è stato lodato come il miglior telefono con fotocamera. Google utilizza algoritmi software all'interno del suo pacchetto HDR + per elaborare i pixel e, se combinato con un po ' dell'apprendimento automatico, alcune foto davvero spettacolari possono provenire da un telefono che potrebbe avere problemi standard hardware.

Per aiutare a elaborare questi algoritmi, Google ha utilizzato un processore specializzato chiamato Pixel Visual Core, un chip che abbiamo visto per la prima volta nel 2017 con Pixel 2. Quest'anno, sembra che Google abbia ha sostituito Pixel VIsual Core con qualcosa chiamato Pixel Neural Core.

Google potrebbe utilizzare tecniche di rete neurale per rendere le foto ancora migliori sul Pixel 4.

L'originale Pixel Visual Core è stato progettato per aiutare gli algoritmi utilizzati dall'elaborazione delle immagini HDR + di Google che rende le foto scattate con Pixel 2 e Pixel 3 così belle. Ha utilizzato un po 'di programmazione di apprendimento automatico e quella che viene chiamata fotografia computazionale per riempire in modo intelligente le parti di una foto che non erano del tutto perfette. L'effetto è stato davvero buono; consente a un telefono con un sensore della fotocamera disponibile in commercio di scattare foto altrettanto buone o migliori di qualsiasi altro telefono disponibile.

Verizon offre Pixel 4a per soli $ 10 / mese sulle nuove linee Unlimited

Se il Pixel Neural Core è ciò che crediamo, il Pixel 4 sarà ancora una volta in lotta per il primo posto quando si tratta di fotografia da smartphone. Ecco perché.

Reti neurali

Sembra che Google stia utilizzando un chip modellato su una tecnica di rete neurale per migliorare l'elaborazione delle immagini all'interno del suo telefono Pixel per il 2019. Una rete neurale è qualcosa che potresti aver visto menzionato una o due volte, ma il concetto non viene spiegato molto spesso. Invece, può sembrare un mumbo-jumbo di computer di livello Google che assomiglia alla magia. Non lo è, e l'idea alla base di una rete neurale è in realtà abbastanza facile da comprendere.

Le reti neurali raccolgono ed elaborano le informazioni in un modo che assomiglia al cervello umano.

Le reti neurali sono gruppi di algoritmi modellati sul cervello umano. Non come appare o addirittura funziona un cervello, ma come elabora le informazioni. Una rete neurale prende i dati sensoriali attraverso quella che viene chiamata percezione della macchina - dati raccolti e trasferiti attraverso sensori esterni, come un sensore di telecamera - e riconosce i modelli.

Questi modelli sono numeri chiamati vettori. Tutti i dati esterni dal mondo "reale", comprese immagini, suoni e testo, vengono tradotti in un vettore e classificati e catalogati come set di dati. Pensa a una rete neurale come a un livello extra sopra le cose memorizzate su un computer o telefono e quel livello contiene dati su cosa significa tutto questo: come appare, come suona, cosa dice e quando è accaduto. Una volta creato un catalogo, i nuovi dati possono essere classificati e confrontati con esso.

Un esempio del mondo reale aiuta tutto ad avere più senso. NVIDIA produce processori che sono molto bravi a eseguire reti neurali. L'azienda ha trascorso molto tempo scansione e copia di foto di gatti nella rete, e una volta terminato il cluster di computer attraverso la rete neurale potrebbe identificare un gatto in qualsiasi foto che ne avesse uno al suo interno. Piccoli gatti, grandi felini, gatti bianchi, gatti calicò, persino leoni di montagna o tigri erano gatti perché la rete neurale aveva così tanti dati su cosa "fosse" un gatto.

Con questo esempio in mente, non è difficile capire perché Google vorrebbe sfruttare questo potere all'interno di un telefono. Un nucleo neurale in grado di interfacciarsi con un ampio catalogo di dati sarebbe in grado di identificare ciò che sta vedendo l'obiettivo della fotocamera e quindi decidere cosa fare. Forse i dati su ciò che vede e su ciò che si aspetta potrebbero essere passati a un algoritmo di elaborazione delle immagini. O forse gli stessi dati potrebbero essere forniti all'assistente per identificare un maglione o una mela. O forse potresti tradurre il testo scritto ancora più velocemente e più accurato di quanto lo faccia Google ora.

Non è un'esagerazione pensare che Google potrebbe progettare un piccolo chip che potrebbe interfacciarsi con una rete neurale e il processore di immagini all'interno di un telefono ed è facile capire perché vorrebbe farlo. Non siamo sicuri di cosa sia esattamente Pixel Neural Core o per cosa potrebbe essere utilizzato, ma ne sapremo di più una volta che vedremo il telefono e i dettagli effettivi quando sarà "ufficialmente" annunciato.

instagram story viewer