Google explica el modo astrofotografía de los Pixel

Google explica en qué consiste el modo astrofotografía de los Pixel

El gigante tecnológico Google ha explicado en qué consiste el modo astrofotografía de sus modelos Pixel, el cual permite capturar las estrellas en el cielo nocturno con una gran nitidez. La explicación ha surgido después de que la compañía ha añadido la función nocturna en la Cámara de Google para los smartphones Pixel 3, 3a, así como en las versiones XL.

En este tipo de fotografías nocturnas se conocen por no salir nada bien, ya que el usuario tiene que conseguir que entre la mayor luz posible para que la imagen no tenga ruido, de modo que aumenta el tiempo de exposición, es decir, el tiempo para capturar la luz. El problema aparece también cuando la exposición es muy larga y el movimiento en la escena fotografiada o la inestabilidad de la cámara influyen para que la fotografía salga borrosa.

Para librarse de todo el proceso mencionado anteriormente, los usuarios ya pueden disfrutar del modo astrofotografía de los Pixel, cuyo funcionamiento consiste en dividir la exposición en una secuencia de varios fotogramas con menos tiempo de exposición, obteniendo como resultado menos movimiento en la escena fotografiada.

google

Al menos así lo explica Google, al decir que «divide la exposición en fotogramas con cortos plazos de exposición suficientes para hacer que las estrellas parezcan puntos de luz. Los fotogramas pueden estar borrosos de forma individual, pero al unirlos la imagen se ve mucho más clara».

Asimismo, Google ha especificado que para fotografiar cielos nocturnos la exposición por cada fotograma no debería superar los 16 segundos. A la vista de que pocos usuarios esperarían más de cuatro minutos para hacer una fotografía, Google ha decidido disminuir una única astrofotografía a 15 fotogramas de hasta 16 segundos cada uno. De modo que, el usuario hará la foto en 240 segundos, lo que se traduce a cuatro minutos.

Para modificar el brillo excesivo en las fotos de noche, la firma emplea un aprendizaje automático que detecta las partes de la imagen que representan el cielo. Gracias a la red neuronal del dispositivo, se puede identificar cada píxel como ‘cielo’ o ‘no cielo’ en una fotografía.

Google se conoce por estar al día con los últimos avances. Por ejemplo, su servicio Google Docs ya ofrece autocorrecciones de ortografía y sugerencias gramaticales en su plataforma en línea.

Más Noticias

Dejar respuesta