Zamknij reklame

Trzecia deweloperska wersja beta systemu iOS 13 kryje w sobie wiele nowych gadżetów. Jednym z nich jest automatyczna korekcja kontaktu wzrokowego. Druga strona ma wtedy wrażenie, że patrzysz jej prosto w oczy.

Teraz, gdy prowadzisz z kimś rozmowę FaceTime, bardzo często druga strona widzi, że masz spuszczone oczy. Wynika to z faktu, że aparaty nie znajdują się bezpośrednio w wyświetlaczu, ale na górnej krawędzi nad nim. Jednak w iOS 13 Apple proponuje niekonwencjonalne rozwiązanie, w którym wiodącą rolę odgrywa nowy ARKit 3.

System dostosowuje teraz dane obrazu w czasie rzeczywistym. Nawet jeśli masz spuszczone oczy, iOS 13 pokazuje Cię tak, jakbyś patrzył bezpośrednio w oczy drugiej osoby. Kilku programistów, którzy przetestowali nową funkcję, pojawiło się już w sieciach społecznościowych.

Jednym z nich był na przykład Will Sigmon, który udostępnił wyraźne zdjęcia. Lewe zdjęcie przedstawia standardową sytuację podczas FaceTime na iOS 12, prawe zdjęcie przedstawia automatyczną korektę poprzez ARKit w iOS 13.

iOS 13 może naprawić kontakt wzrokowy podczas FaceTime

Funkcja wykorzystuje ARKit 3, nie będzie dostępna dla iPhone'a X

Dyżurujący Mike Rundle jest zachwycony rezultatem. Co więcej, jest to jedna z funkcji, które przewidział już w 2017 roku. Swoją drogą, cała jego lista przewidywań jest interesująca:

  • iPhone będzie w stanie wykrywać obiekty 3D w swoim otoczeniu za pomocą ciągłego skanowania przestrzeni
  • Śledzenie ruchu oczu, dzięki któremu oprogramowanie jest w stanie przewidywać ruch i umożliwia sterowanie interfejsem użytkownika systemu za pomocą ruchu oczu (Apple kupił w 2017 roku firmę SensoMotoric Instruments, która jest uważana za lidera w tej dziedzinie)
  • Dane biometryczne i zdrowotne uzyskane poprzez skanowanie twarzy (jaki jest puls danej osoby itp.)
  • Zaawansowana edycja obrazu, aby zapewnić bezpośredni kontakt wzrokowy, na przykład podczas FaceTime (co właśnie miało miejsce)
  • Uczenie maszynowe będzie stopniowo pozwalało iPhone'owi liczyć obiekty (ilość osób w pomieszczeniu, ilość ołówków na stole, ile T-shirtów mam w szafie...)
  • Błyskawiczny pomiar obiektów, bez konieczności używania linijki AR (jak wysoka jest ściana,...)

Tymczasem Dave Schukin potwierdził, że iOS 13 wykorzystuje ARKit do korygowania kontaktu wzrokowego. Podczas wolniejszego odtwarzania można uchwycić, jak okulary nagle się zniekształcają, zanim zostaną założone na oczy.

Deweloper Aaron Brager dodaje następnie, że system wykorzystuje specjalne API, które jest dostępne tylko w ARKit 3 i jest ograniczone do najnowszych modeli iPhone XS/XS Max i iPhone XR. Starszy iPhone X nie obsługuje tych interfejsów i funkcja nie będzie na nim dostępna.

Źródło: 9to5Mac

.