Índice:
- É assim que funciona o algoritmo do Google
- Correção automática levando em consideração o contexto
- Talvez veremos essa tecnologia no Pixel
Pesquisadores do Google e do MIT desenvolveram um algoritmo que busca corrigir falhas em fotos de grande angular.
Você pode ter visto que os rostos de algumas pessoas parecem esticados, ligeiramente achatados ou com alguma distorção nas fotos. Embora possa ser devido à pouca habilidade do fotógrafo, a verdade é que fotos com lente grande angular de dispositivos móveis costumam causar distorção em objetos ou pessoas que estão nas bordas da imagem.
Existem diferentes métodos que tentam resolver esse problema, mas até agora nenhum foi tão eficaz quanto a nova proposta do Google. Embora possa parecer fácil de consertar, não é, pois requer uma complexa edição local que não afeta o resto dos objetos na foto.
É assim que funciona o algoritmo do Google
Conforme explicam os pesquisadores, esse algoritmo detecta faces e cria uma malha que permite reverter automaticamente esse tipo de distorção ao tirar uma foto com grande angular, conforme ilustrado na imagem:
Podemos dizer a diferença ao aplicar este algoritmo nas imagens a seguir. É uma selfie tirada com uma lente grande angular com um campo de visão de 97 °.
A primeira imagem mostra as distorções nas faces e a segunda mostra como o algoritmo restaurou as formas das faces ao seu estado original.
Ou seja, este processo é ativado automaticamente ao usar a lente grande angular, proporcionando esse atendimento especial aos rostos, mas sem causar alterações no restante da imagem. E, claro, a velocidade dessa correção automática (cerca de 920 milissegundos) torna impossível para os usuários detectar.
De acordo com seus testes, este algoritmo funciona com sucesso na faixa de 70 ° a 120 ° no campo de visão, cobrindo quase todas as possibilidades de um dispositivo móvel.
Para aproveitar o potencial desse algoritmo, o usuário não teria que realizar nenhuma ação ou ativar nenhum modo especial de câmera. Esta função seria implementada automaticamente apenas quando detectasse que a lente grande angular é usada.
Correção automática levando em consideração o contexto
Podemos ver a dinâmica desse algoritmo no seguinte vídeo:
O algoritmo corrige automaticamente levando em consideração o restante dos objetos que aparecem na cena, garantindo que todo o contexto da fotografia corresponda. Os resultados são naturais, sem detalhes que mostram que a fotografia foi modificada.
A equipe por trás deste projeto compartilhou uma galeria de fotos no Flickr mostrando como diferentes métodos abordam esse problema em comparação com a dinâmica de seu algoritmo. São mais de 160 fotografias (como a que você vê no início do artigo) que nos ajudam a avaliar os resultados.
Talvez veremos essa tecnologia no Pixel
Podemos esperar que este algoritmo ou alguma tecnologia derivada seja aplicada na próxima geração do Pixel, já que a equipe que participa deste projeto são funcionários do Google.
No entanto, no documento que eles compartilharam, eles não mencionaram nada sobre isso. Esses primeiros testes do algoritmo em ação tiveram sucesso mostrando mais uma vez como o potencial da inteligência artificial pode melhorar a dinâmica dos dispositivos móveis e facilitar a vida dos usuários.
Pois sem dúvida, ter uma dinâmica semelhante em nosso dispositivo móvel pouparia muita dor de cabeça e tempo tentando editar essas distorções nas fotos.