Info Destaque

Cupom de R$20 OFF nas compras acima de R$100 (Código: SOUSOCIA)

Entenda modo astrofotografia dos celulares Google Pixel

Tecnologia do Google cria várias fotos e combina melhores traços de cada uma para resultados surpreendentes

Com o Pixel 4 e Pixel 4 XL, o Google promoveu a inclusão do recurso de astrofotografia no arsenal de funcionalidades do sistema de câmeras dos celulares. A tecnologia, que também é disponibilizada a usuários dos Pixel 3A e Pixel 3, usa processamento de imagens e fotos de exposição maior para gerar imagens que revelam a beleza do céu noturno, mostrando estrelas e o contorno da Via Láctea, por exemplo. Explicamos o que é a astrofotografia e como o Google conseguiu tornar essa forma de arte, antes restrita à câmeras profissionais, presente em celulares.

O que é astrofotografia?
A astrofotografia consiste na arte de fotografar o céu noturno (embora astrofotografia diurna seja viável com filtros para captar o Sol, por exemplo). No geral, a ideia desse tipo de fotografia é explorar as características do cosmo, revelando estrelas, constelações, o perfil da nossa galáxia, demais astros, tudo com o auxílio ou não de lentes especiais e telescópios.

Entretanto, a fotografia no escuro exige algumas atenções. A primeira delas, pensando nas câmeras convencionais, é que boas capturas dependem de períodos de exposição mais longos: como a quantidade de luz emitida ou refletida pelos astros é bem pequena, é preciso deixar a câmera aberta em estado de captura por alguns instantes – o intervalo varia de dezenas de segundos a alguns minutos – a depender das características do céu no instante da foto, do equipamento e dos objetivos do fotógrafo.

Numa câmera profissional, seja DSLR ou mirrorless, o sensor é grande o suficiente para que uma exposição de alguns segundos baste para que a câmera capture informação luminosa suficiente para gerar uma imagem complexa de algo como o contorno da Via Láctea. No celular, os sensores normalmente são pequenos, o que pode gerar alguns problemas.

Os desafios da astrofotografia em celulares
A primeira ideia seria aumentar o período de exposição. Se na DSLR alguns segundos bastam para a captura, num celular apoiado num tripé e em modo manual talvez alguns minutos a mais compensassem o tamanho diminuto do sensor de imagem.

Como a Terra está em movimento, estrelas deixam rastro em fotos de longa exposição — Foto: Divulgação/Nikon

O problema é que, em geral, quanto mais prolongado o período de captura, maior a tendência de erros na imagem: o primeiro fator é a realidade de que a Terra está em movimento, e uma foto do céu noturno feita num intervalo de 10 minutos não irá mostrar pontos de luz identificáveis, mas sim o rastro de luz deixado pelas estrelas. Quando a captura terminar, as estrelas estarão num ponto diferente de quando o obturador foi disparado.

Fatores como oscilação da atmosfera e tremidas no aparelho acabam se tornando mais prováveis, comprometendo o resultado final.

A solução do Google
Imagem, capturada com um Pixel 4, permite distinguir estrelas e aglomerados — Foto: Reprodução/Android Central

O Google criou uma tecnologia que aproveita os recursos do modo noturno e os expande para permitir que fotos da Via Láctea.

O Pixel corrige o problema do movimento da Terra e dos astros com um processo que cria várias fotos de longa exposição – de até 4 minutos cada – e que são combinadas em tempo real pela inteligência artificial do Google. O algoritmo analisa cada foto para identificar as mudanças entre elas e monta o resultado final a partir da combinação – empilhamento – das fotos, criando uma composição com maior qualidade e que pode ser comparada com o que amadores obtém com câmeras mais sérias.

Essa abordagem, que usa várias imagens separadas para condensar um resultado final de maior qualidade, é a mesma usada por astrofotógrafos profissionais, ainda que de forma mais manual: quem se dedica a essa arte costuma gerar centenas de fotos por noite, que são depois processadas e empilhadas em softwares como o Deep Sky Stacker.

Outro processo de correção, chamado de Segmentação Semântica (Semantic Segmentation em inglês), compara cada parte de cada fotografia para identificar elementos isolados em busca de processos que podem ser úteis para melhorar o seu aspecto na imagem final: estrelas e pontos de luz, por exemplo, ganham filtros e efeitos que ressaltam a sua intensidade e cor, enquanto áreas escuras do céu são processadas de forma a eliminar distorções e reforçar o contraste.

Fonte: Techtudo

Nenhum comentário:

Vem ser fera no Photoshop com esse curso super acessível ao seu bolso, Click no banner abaixo 👇

Recomende e compartilhe para seus amigos no facebook



Click aqui para conferir a lista completa de celulares ➤➤➤ SMARTPHONE INFO

Últimos Smartphones "Android" Adicionados

Últimos Smartphones "iOS" Adicionados

Últimas em "Info App"

Últimas em "Curiosidades Smart"

Últimas em "Smart Biografias"

Últimas em "Smart Dicas"

Últimas em "Smart News"

➤➤➤SmartPhone da Semana


O P40 lite mantém a "tradição" da linha com foco em câmera, trazendo quatro sensores traseiros bastante poderosos, um deles com 48 megapixels. E, mesmo sendo "lite", conta com carregamento rápido de 40 watts.

LANÇAMENTO: 27.FEV.2020

Display: 6.4"
Sistema Operacional: Android 10
Resolução: 1080 x 2310px
Capacidade: 128 GB, 8 GB RAM
Cartão de Memória: NM (Nano Memory) até 256 GB (usa a mesma gaveta do SIM)
Tecnologia de Rede: GSM / HSPA /

➤➤➤ Top MultiMidia Info

Artista compartilha imagens de antes e depois que mostram como o Photoshop o ajuda a criar fotos surreais

Conheça Kevin Carden - um fotógrafo e artista digital que tem a capacidade de transformar salas de estar comuns em cenas surreais e encant...

Confira nossas últimas matérias

10/recentposts

➤➤➤Confira os destaques do nosso canal no Youtube









➤➤➤Navegue pela Data e encontre as Matérias em Ordem Cronológica

Tecnologia do Blogger.