Table des matieres
Le mode nuit n’est pas la seule nouveauté à attendre les utilisateurs des nouveaux smartphones iPhone pour prendre des photos dans des conditions d’éclairage défavorables. Deep Fusion est un nouvel algorithme de traitement des photos prises en basse et moyenne lumière. Il étend les modes de l’appareil photo sur l’iPhone 11 et l’iPhone 11 Pro en introduisant trois modes qui s’exécutent automatiquement en fonction des conditions d’éclairage dans lesquelles vous souhaitez prendre une photo. Cependant, tous les yeux de caméra n’ont pas été traités de la même manière et tous les objectifs n’utiliseront pas l’algorithme Deep Fusion.
Les pires conditions d’éclairage sont vraiment prometteuses
– L’objectif standard utilisera le Smart HDR amélioré pour éclaircir la photo dans une lumière moyenne, tandis que Deep Fusion entrera en action avec une luminosité encore plus faible, en mode nuit lorsqu’il fait complètement noir.
– Tout d’abord, le mode Deep Fusion sera utilisé avec le téléobjectif, Smart HDR ne traitera que les scènes lumineuses, tandis que le mode nuit utilisera les scènes sombres.
– Le grand angle ne prend pas en charge le mode Deep Fusion ni le mode nuit et sera uniquement basé sur l’algorithme Smart HDR.
Deep Fusion sera un mode que nous ne verrons nulle part dans les paramètres de la caméra. Il ne renseignera pas l’utilisateur sur son fonctionnement, les informations sur son utilisation n’apparaîtront pas non plus dans les données EXIF de la photo. L’idée est évidemment simple et logique : Apple veut que la machine règle tout pour nous, et l’utilisateur sélectionne simplement la photo sans se demander si c’est le moment où vous devez activer le mode nuit ou tout autre algorithme. Beaucoup de gens aiment avoir le contrôle total de la caméra, mais êtes-vous le plus susceptible ?
Comment fonctionne Deep Fusion? Un peu différent du Smart HDR?
Même, avant que l’utilisateur n’appuie sur le bouton de l’appareil photo pour prendre une photo, quatre cadres seront déjà capturés pour arrêter le mouvement du sujet sur la photo. Lorsque vous appuyez sur le déclencheur, l’appareil photo enregistre une exposition plus longue pour capturer les détails à partir du cadre. Les images sauvegardées sont ensuite combinées en une « exposition synthétique longue ».
Deep Fusion capture la prise de vue avec une courte exposition – mais celle qui contient le plus de détails, puis la combine avec une « exposition longue synthétiquement ». Contrairement à l’algorithme Smart HDR, il ne s’agit que des deux images sélectionnées. Dans le même temps, toutes les images sont bruyantes. La prochaine étape consiste à saisir les détails, pixel par pixel. Enfin, après tous ces processus d’usinage, l’image finale est générée. Beaucoup de travail, qui doit être achevé dans un court laps de temps – cela prendra apparemment au maximum une demi-seconde.
Et celle que vous voyez sur les photos partagées par Apple est vraiment impressionnante. Beaucoup de détails, un bon rendu des sources lumineuses – cela ne ressemble pas à une photo prise avec un smartphone. Mais il convient également de rappeler que cette photo du fabricant et les effets réels de Deep Fusion devront attendre que l’algorithme teste les utilisateurs normaux.
Apple lui-même affirme que Deep Fusion est un grand pas en avant pour les nouveaux appareils photo iPhone et pour toutes les photographies mobiles. Dans l’ensemble, je suis très curieux de savoir comment cela se déroulera dans les semaines à venir : lorsque Deep Fusion quittera la version bêta d’iOS 13 pour passer à la version normale du système et que, dans l’intervalle, Google publiera de nouveaux pixels. Ce n’est un secret pour personne que les logiciels jouent un rôle important dans les smartphones, et ceux dans le cas des smartphones Pixel sont sensationnels depuis des années.