Depuis sa création, l'appareil photo est resté la pierre angulaire de la gamme de téléphones Google Pixel. En exploitant les tas de données qu'il collecte, Google a été en mesure de repousser les limites de la photographie mobile. Grâce à un logiciel, l'entreprise a réussi à reproduire des fonctionnalités avancées, normalement pour lesquelles d'autres équipementiers regroupent deux, trois ou, dans certains cas, quatre caméras à l'arrière.
Alors, comment ces modes de caméra fonctionnent-ils sans matériel spécial ? Nous expliquons ici les meilleures fonctionnalités de l'appareil photo de Google Pixel.
HDR + est la version de Google du mode HDR traditionnel que l'on trouve sur la plupart des smartphones aujourd'hui. Il est important de comprendre ce dernier avant d'approfondir la manière dont Google aborde le concept.
En photographie HDR, votre téléphone, au lieu de prendre une seule photo, prend plusieurs photos à différents niveaux d'exposition. Cela permet à la caméra de collecter plus de données sur la scène et de produire un résultat qui restitue plus précisément les hautes lumières et les ombres. Pour ce faire, il mélange ces différentes images à l'aide d'algorithmes complexes.
Ainsi, par exemple, il existe des scénarios où vous essayez de capturer une image de quelqu'un debout devant un arrière-plan lumineux et au final, soit votre ami est complètement dans l'ombre, soit l'arrière-plan a été soufflé. C'est là que le HDR entre en jeu et équilibre la lumière la plus claire et l'obscurité la plus sombre de votre cadre.
Étant donné que sur les téléphones, tout ce processus est automatisé, cela peut être un peu délicat pour les entreprises qui ne disposent pas d'un énorme ensemble de données pour former leurs algorithmes. Il y a aussi d'autres lacunes. Comparé aux appareils photo professionnels, le capteur de votre téléphone est beaucoup plus petit, ce qui génère du bruit lorsqu'il reste ouvert trop longtemps.
Le HDR+ de Google essaie de résoudre tout cela. Cela implique également de capturer un tas d'images et de les traiter plus tard. Mais contrairement aux autres, les téléphones de Google prennent plusieurs photos sous-exposées et les fusionnent grâce à des algorithmes formés sur un ensemble de données massif de photos étiquetées.
Étant donné que HDR+ ne passe pas par un large spectre d'expositions comme les systèmes traditionnels, il y a aussi beaucoup moins de flou de mouvement dans les images et le bruit. Pour s'assurer que tous ces calculs ne ralentissent pas votre téléphone, Google a même commencé à intégrer une puce propriétaire dédiée appelée Pixel Visual Core de la série Pixel 2.
On peut dire que la technologie de caméra la plus impressionnante développée par l'équipe logicielle de Google s'intitule Night Sight. Lorsqu'elle est activée, la fonction est capable de prendre des scènes presque sombres avec presque aucune lumière et de produire comme par magie une image bien éclairée.
Night Sight, qui est même disponible sur le Google Pixel de première génération, est construit sur la technologie HDR+ de l'entreprise. Chaque fois que vous appuyez sur le bouton de l'obturateur avec Night Sight activé, le téléphone prend de nombreuses photos avec un tas de paramètres d'exposition.
Les informations traitées sont ensuite transmises aux algorithmes pour comprendre les différents détails de la scène comme les ombres, les hautes lumières et la quantité de lumière qu'il y a réellement. Grâce à cet apprentissage, l'application appareil photo assemble une image beaucoup plus éclairée sans amplifier le grain.
Le zoom numérique est un autre inconvénient majeur de la photographie mobile que Google a essayé de résoudre avec un logiciel au lieu d'un matériel dédié comme d'autres.
Appelée Super Res Zoom, la fonctionnalité promet un zoom numérique jusqu'à 2x sans compromettre aucun détail. Il utilise la même technique de photographie en rafale que Google utilise pour HDR+ et Night Sight. Mais ici, cela ne vaut pas pour une gamme d'expositions.
Pour le zoom Super Res, l'appareil photo capture plusieurs prises de vue sous différents angles. Cela vous oblige-t-il donc à vous déplacer physiquement ? Pas du tout. Dans le cas d'images agrandies, le moindre mouvement de la main suffit pour un angle différent. Google utilise donc essentiellement vos tremblements de la main pour accumuler plus d'informations.
Google a une solution si vos mains sont trop stables ou si votre téléphone est également monté sur un trépied. Dans ces scénarios, l'objectif bougera un peu pour reproduire les mouvements de la main, ce qui est tout simplement étonnant.
Le téléphone utilise toutes ces données pour capturer une photo avec beaucoup plus de détails que le zoom numérique aurait normalement produits.
Alors que la majorité des fabricants incluent des caméras supplémentaires pour la détection de profondeur, Google réalise le mode Portrait avec un logiciel. Pour cela, l'application appareil photo commence par prendre une photo normale avec HDR+. Ensuite, avec l'aide des réseaux neuronaux formés de Google, le téléphone essaie de comprendre le sujet principal. Cela peut être une personne, un chien ou n'importe quoi d'autre.
Pour s'assurer qu'il ne gâche pas les bords, le mode Portrait de Google bénéficie d'une technologie appelée Dual Pixel. En termes simples, cela signifie que chaque pixel capturé par le téléphone est techniquement une paire de pixels. Outre une meilleure mise au point, le téléphone dispose donc de deux points de vue pour évaluer la distance entre l'arrière-plan et le premier plan.
Ceci est crucial car les téléphones Pixel ne disposent pas de plusieurs capteurs pour calculer la profondeur. Enfin, le téléphone brouille tout sauf le masque de sujet qu'il a finalisé.
Vous vous demandez comment obtenir la fonctionnalité sur votre téléphone ? Voici un guide simple pour utiliser le mode Portrait sur n'importe quel téléphone Android.
Avec Pixel 3, Google a introduit une nouvelle fonctionnalité d'appareil photo intelligente appelée Top Shot. Comme son nom l'indique, il vous permet de sélectionner un meilleur cliché que celui sur lequel vous avez cliqué.
Pour ce faire, l'appareil photo prend jusqu'à 90 images 1,5 seconde avant et après avoir appuyé sur la touche de l'obturateur. Et lorsqu'il détecte des défauts tels qu'un flou de mouvement ou des yeux fermés, il recommande automatiquement une autre image. Vous pouvez également en choisir un manuellement dans le lot, bien que seuls deux d'entre eux soient en haute résolution.
Étant donné que Top Shot est une extension de Motion Photos, il n'affecte pas les performances de votre appareil photo.
Bien que le logiciel de Google fasse beaucoup pour vous, quelques scénarios compliqués exigent encore des efforts supplémentaires de votre part. Pour maîtriser ces prises de vue, nous vous recommandons de maîtriser ces astuces simples qui peuvent considérablement améliorer vos compétences en photographie sur smartphone.