Zamknij reklame

iPhone 11 i iPhone 11 Pro (Max) są w sprzedaży już drugi tydzień, ale nadal brakuje im jednej z najciekawszych funkcji – Deep Fusion. Jednak według najnowszych doniesień Apple ma już gotową tę funkcję i wkrótce zaoferuje ją w nadchodzącej wersji beta iOS 13, najprawdopodobniej w iOS 13.2.

Deep Fusion to nazwa nowego systemu przetwarzania obrazu do fotografii iPhone'a 11 (Pro), który w pełni wykorzystuje możliwości procesora A13 Bionic, a konkretnie Neural Engine. Za pomocą uczenia maszynowego zrobione zdjęcie jest przetwarzane piksel po pikselu, optymalizując w ten sposób tekstury, szczegóły i ewentualne szumy w każdej części obrazu. Funkcja przyda się zatem szczególnie podczas robienia zdjęć wewnątrz budynków lub przy średnim oświetleniu. Aktywuje się ono całkowicie automatycznie i użytkownik nie będzie miał możliwości jego dezaktywacji – praktycznie nawet nie wie, że w danej sytuacji Deep Fusion jest aktywny.

Proces robienia zdjęcia nie będzie inny w przypadku Deep Fusion. Użytkownik po prostu naciska spust migawki i chwilę czeka na utworzenie obrazu (podobnie jak w przypadku Smart HDR). Mimo że cały proces trwa tylko około sekundy, telefon, a właściwie procesor, radzi sobie z wykonaniem szeregu skomplikowanych operacji.

Cały proces wygląda następująco:

  1. Jeszcze zanim naciśniesz spust migawki aparatu, w tle zostaną wykonane trzy zdjęcia z krótkim czasem naświetlania.
  2. Następnie po naciśnięciu spustu migawki w tle wykonywane są jeszcze trzy klasyczne zdjęcia.
  3. Zaraz potem telefon robi kolejne zdjęcie z długim czasem naświetlania, aby uchwycić wszystkie szczegóły.
  4. Trzy klasyczne zdjęcia i zdjęcie o długim czasie naświetlania są połączone w jeden obraz, który Apple określa jako „syntetyczny długi”.
  5. Funkcja Deep Fusion wybiera pojedyncze zdjęcie o najlepszej jakości i krótkim czasie ekspozycji (wybiera spośród trzech wykonanych przed naciśnięciem migawki).
  6. Następnie wybrana ramka jest łączona z utworzoną „syntetyczną długą” (w ten sposób łączą się dwie klatki).
  7. Łączenie dwóch obrazów odbywa się w czteroetapowym procesie. Obraz tworzony jest piksel po pikselu, detale są podkreślane, a chip A13 otrzymuje instrukcję, jak dokładnie należy połączyć oba zdjęcia.

Chociaż proces ten jest dość złożony i może wydawać się czasochłonny, ogólnie zajmuje tylko trochę więcej czasu niż przechwycenie obrazu za pomocą Smart HDR. Dzięki temu zaraz po naciśnięciu spustu migawki użytkownikowi najpierw ukazuje się klasyczne zdjęcie, które jednak po chwili zostaje zastąpione szczegółowym obrazem Deep Fusion.

Przykładowe zdjęcia Apple Deep Fusion (i Smart HDR):

Warto zaznaczyć, że zalety Deep Fusion wykorzysta przede wszystkim teleobiektyw, jednak nawet podczas fotografowania klasycznym obiektywem szerokokątnym nowość się przyda. Dla kontrastu, nowy ultraszerokokątny obiektyw w ogóle nie będzie obsługiwał Deep Fusion (a także nie obsłuży fotografii nocnej), a zamiast tego będzie korzystał ze Smart HDR.

Nowy iPhone 11 będzie więc oferował trzy różne tryby, które będą aktywowane w różnych warunkach. Jeśli scena jest zbyt jasna, telefon użyje funkcji Smart HDR. Funkcja Deep Fusion włącza się podczas fotografowania w pomieszczeniach i przy umiarkowanie słabym oświetleniu. Gdy tylko zrobisz zdjęcia wieczorem lub w nocy przy słabym oświetleniu, włącza się tryb nocny.

Tylny aparat FB w iPhonie 11 Pro

źródło: Poboczy

.