De 0,11 megapixels a assistentes de redes neurais: como as câmeras evoluíram nos smartphones
Devices / / January 06, 2021
A câmera em um smartphone se tornou parte integrante de nossa vida: com sua ajuda você sempre pode capturar um momento importante e compartilhá-lo com outras pessoas. Porém, para que isso se concretizasse, foram necessários 20 anos de progresso técnico, uma redistribuição do mercado de equipamentos fotográficos e muitas inovações. Decidimos lembrar como a fotografia móvel invadiu nossa vida cotidiana e quais empresas a tornaram simples e acessível.
Os primeiros telefones com câmera
Pela primeira vez a câmera apareceu no telefone em 1999: a empresa japonesa Kyocera lançou o modelo VP-210, que permitia fazer videochamadas. A câmera foi localizada na frente e capturou o rosto do proprietário a uma taxa de 2 quadros por segundo. Ela também pode tirar selfies com resolução de 0,11 megapixels e armazená-los na memória do aparelho em uma quantidade de até 20 peças.
Nos anos seguintes, as câmeras móveis desenvolveram-se rapidamente sob o ataque da concorrência, e já em 2004 a marca de 1 milhão de pixels (1 megapixel) foi alcançada. E em 2005 o mercado ficou chocado com dois modelos que podem ser chamados de primeiros telefones com câmera: Nokia N90 e Sony Ericsson k750i. Eles usaram câmeras com foco automático de 2 megapixels e tiraram fotos nítidas, não abstrações borradas. Foi então que a atitude dos usuários em relação à fotografia móvel começou a mudar: grupos temáticos surgiram no Flickr, as pessoas começaram a trocar fotos recebidas em seus celulares e a discuti-las.
A cada ano subsequente, o número de pessoas tirando fotos com seus telefones cresceu exponencialmente. O lançamento do iPhone em 2007 mudou a atitude em relação aos dispositivos monofuncionais: os smartphones começaram a substituir os tocadores de MP3 e depois as câmeras amadoras de foto e vídeo.
Lendo agora🔥
- 25 Ovos de Páscoa divertidos da Pesquisa Google que você talvez não conheça
Amanhecer do Instagram
O colapso do mercado de câmeras ocorreu em 2010, quando o serviço Instagram foi lançado. Os usuários queriam obter uma imagem atraente da maneira mais fácil e rápida possível e publicá-la nas redes sociais.
Ao mesmo tempo, a qualidade das câmeras móveis melhorou. Lançado em 2011, o iPhone 4s recebeu uma câmera de 8 megapixels e lentes sensíveis à luz com uma abertura de f / 2.4. Essas características cobriram a maioria das necessidades: você pressiona o botão, obtém um quadro claro e carrega-o em Instagram.
Com o tempo, o processamento de imagens em smartphones tornou-se mais agressivo: contraste, saturação e nitidez de contorno em prioridade, e a naturalidade da imagem esmaecida no fundo. Mas também houve tentativas de trazer tecnologia profissional para câmeras móveis. Então, a Nokia em 2012 fez o telefone com câmera 808 PureView.
O modelo se distinguiu por características fenomenais para a época. A resolução da câmera era de 41 Mp e o tamanho físico do sensor era de 1 / 1,2 ″. Também foi equipado com obturador mecânico, filtro ND embutido, lente Carl Zeiss com abertura f / 2.4 e flash xenon.
Infelizmente, outros fabricantes não tinham pressa em seguir o exemplo da Nokia, contando com filtros e outras decorações.
Mais câmeras, boas e diferentes
Em algum momento, as empresas decidiram aumentar o número de câmeras nos smartphones. Em 2011, foram lançados o HTC Evo 3D e o LG Optimus 3D, que usavam duas lentes cada para criar fotografias estereoscópicas. No entanto, a tecnologia acabou não sendo reclamada e os fabricantes se esqueceram desses experimentos por vários anos.
Na primavera de 2014, o mercado viu o HTC One M8. O smartphone recebeu um módulo auxiliar para medir a profundidade e separar o objeto do fundo. Portanto, a empresa implementou o modo retrato dois anos antes da Apple.
Um verdadeiro boom aconteceu em 2016, quando os maiores fabricantes apresentaram suas soluções. Ao mesmo tempo, não havia uma visão única das necessidades do smartphone duas câmeras. Por exemplo, a Huawei promoveu a fotografia monocromática com o P9, que foi desenvolvido em parceria com a Leica. O LG G5 contou com shirik, enquanto a Apple introduziu uma lente telefoto para fotografia de retrato e zoom óptico no iPhone 7 Plus.
Acontece que duas câmeras não são o limite. Agora quase todos os smartphones do mercado são equipados com três lentes com diferentes distâncias focais, além de câmeras para macrofotografia e medição de profundidade.
Características crescentes
A qualidade das câmeras móveis sempre foi limitada por limitações físicas: a pequena espessura do case não permitia equipar os smartphones com óticas de alta qualidade e grandes sensores. No entanto, os usuários exigiam melhorias, as empresas procuravam satisfazer suas necessidades.
Então, acabamos com câmeras projetando-se alguns milímetros do corpo. As dimensões físicas dos sensores também cresceram: se cinco anos atrás eles flutuavam dentro de 1/3 ″, agora eles apareceram no mercado Samsung Galaxy S20 Ultra e Huawei P40 com sensores de 1 / 1,3 ″. Os sensores de imagem aumentaram quase nove vezes, o que melhorou significativamente a qualidade das fotos.
A grande área dos sensores permitiu aumentar a resolução. As câmeras móveis de 48 MP e 64 MP se tornaram a norma, e a Samsung e Xiaomi já assumiram a linha de 108 megapixels. No entanto, fotos com essa resolução pesam muito, então os engenheiros tentaram um truque: as informações dos pixels vizinhos são combinadas. Isso reduz a resolução, mas em troca obtemos menos ruído e uma faixa dinâmica mais ampla.
Qual é o próximo
Todas essas inovações tornaram os smartphones um substituto ideal para saboneteiras digitais. Mesmo assim, eles ainda têm espaço para crescer. E mesmo que as características físicas atinjam o teto, o software sempre virá em seu socorro.
Agora, a fotografia computacional está ganhando impulso: a câmera tira uma série de fotos e redes neurais com base nisso, eles coletam o quadro ideal, suprimindo ruídos, equalizando o brilho e corrigindo a cor. O método é usado no Google Pixel 4, iPhone 11, Huawei P40 e muitos outros smartphones. O processamento ocorre de forma automática e imperceptível para o usuário - ele vê apenas o resultado.
Conforme aumenta a produtividade, os recursos das câmeras se tornam mais amplos. Eles já podem gravar vídeo e realizar o processamento em tempo real: desfocar o fundo ou torná-lo preto e branco, deixando os objetos coloridos. A direção da realidade aumentada também está se desenvolvendo: a Apple já equipou o iPad Pro com um sensor LiDAR para trabalhar com aplicativos de RA, e em breve a tecnologia também aparecerá no iPhone.
As câmeras móveis estão se tornando um complexo de hardware-software, cujas capacidades não entendemos totalmente. É por isso que é mais interessante acompanhar os desenvolvimentos mais recentes nesta área e testá-los você mesmo.
Leia também📸
- Melhores câmeras de smartphone de 2019 de acordo com DxOMark
- Como tirar uma boa foto: 6 princípios básicos
- 9 vantagens de um smartphone com câmera tripla