Seleccionar página

Hay una razón por la cual el Pixel 3 ha sido elogiado como el mejor teléfono con cámara. Google usa algoritmos de software dentro de su paquete HDR+ para procesar píxeles, y cuando se combina con un poco de aprendizaje automático, algunas fotos realmente espectaculares pueden provenir de un teléfono que puede tener hardware estándar.

Para ayudar a procesar estos algoritmos, Google usó un procesador especializado llamado Pixel Visual Core, un chip que vimos por primera vez en 2017 con Pixel 2. Este año, parece que Google reemplazó Pixel VIsual Core con algo llamado Pixel Neural Core.

Google puede estar usando técnicas de redes neuronales para hacer que las fotos sean aún mejores en el Pixel 4.

El Pixel Visual Core original fue diseñado para ayudar a los algoritmos utilizados por el procesamiento de imágenes HDR+ de Google, que hace que las fotos tomadas con Pixel 2 y Pixel 3 se vean tan bien. Usó algo de programación de aprendizaje automático y lo que se llama fotografía computacional para completar de manera inteligente las partes de una foto que no eran del todo perfectas. El efecto fue realmente bueno; permite que un teléfono con un sensor de cámara listo para usar tome fotografías tan buenas o mejores que cualquier otro teléfono disponible.

Si Pixel Neural Core es lo que creemos que es, Pixel 4 volverá a luchar por el primer puesto en lo que respecta a la fotografía de teléfonos inteligentes. Este es el por qué.

Redes neuronales

Parece que Google está usando un chip modelado a partir de una técnica de red neuronal para mejorar el procesamiento de imágenes dentro de su teléfono Pixel para 2019. Una red neuronal es algo que quizás haya visto mencionado una o dos veces, pero el concepto no se explica muy a menudo. . En cambio, puede parecer un galimatías informático al nivel de Google que se parece a la magia. No lo es, y la idea detrás de una red neuronal es bastante fácil de comprender.

Las redes neuronales recopilan y procesan información de una manera que se asemeja al cerebro humano.

Las redes neuronales son grupos de algoritmos modelados a partir del cerebro humano. No cómo se ve o incluso funciona un cerebro, sino cómo procesa la información. Una red neuronal toma datos sensoriales a través de lo que se llama datos de percepción de la máquina recopilados y transferidos a través de sensores externos, como un sensor de cámara, y reconoce patrones.

Estos patrones son números llamados vectores. Todos los datos externos del mundo "real", incluidas imágenes, sonidos y texto, se traducen a un vector y se clasifican y catalogan como conjuntos de datos. Piense en una red neuronal como una capa adicional sobre las cosas almacenadas en una computadora o teléfono y esa capa contiene datos sobre lo que significa todo, cómo se ve, cómo suena, qué dice y cuándo sucedió. Una vez que se crea un catálogo, se pueden clasificar nuevos datos y compararlos.

Un ejemplo del mundo real ayuda a que todo tenga más sentido. NVIDIA fabrica procesadores que son muy buenos para ejecutar redes neuronales. La empresa dedicó mucho tiempo a escanear y copiar fotos de gatos (opens in new tab) en la red y, una vez que terminó, el grupo de computadoras a través de la red neuronal pudo identificar un gato en cualquier foto que tuviera uno. Los gatos pequeños, los gatos grandes, los gatos blancos, los gatos calico, incluso los pumas o los tigres eran gatos porque la red neuronal tenía muchos datos sobre lo que "era" un gato.

Con ese ejemplo en mente, no es difícil entender por qué Google querría aprovechar este poder dentro de un teléfono. Un Neural Core que pueda interactuar con un gran catálogo de datos podría identificar lo que ve la lente de su cámara y luego decidir qué hacer. Tal vez los datos sobre lo que ve y lo que espera podrían pasarse a un algoritmo de procesamiento de imágenes. O tal vez los mismos datos podrían enviarse al Asistente para identificar un suéter o una manzana. O tal vez podría traducir el texto escrito incluso más rápido y con mayor precisión que lo que hace Google ahora.

No es exagerado pensar que Google podría diseñar un pequeño chip que podría interactuar con una red neuronal y el procesador de imágenes dentro de un teléfono y es fácil ver por qué querría hacerlo. No estamos seguros exactamente de qué es Pixel Neural Core o para qué se puede usar, pero sin duda sabremos más una vez que veamos el teléfono y los detalles reales cuando se anuncie "oficialmente".

Video: