Hirdetés bezárása

A rendszer harmadik fejlesztői béta verziója Az iOS 13 számos új modult rejt. Ezek egyike az automatikus szemkontaktus korrekció. A másik félnek ilyenkor az a benyomása támad, hogy Ön közvetlenül a szemébe néz.

Most, amikor FaceTime-hívást folytat valakivel, a másik fél gyakran láthatja, hogy lesütött a szeme. Ez annak köszönhető, hogy a kamerák nem közvetlenül a kijelzőben, hanem a felső szélén vannak. Az iOS 13-ban azonban az Apple egy nem mindennapi megoldással áll elő, ahol az új ARKit 3 játssza a vezető szerepet.

A rendszer mostantól valós időben állítja be a képadatokat. Tehát annak ellenére, hogy a szeme le van csukva, az iOS 13 úgy néz ki, mintha közvetlenül a másik szemébe nézne. Több olyan fejlesztő is megjelent már a közösségi oldalakon, akik már tesztelték az új funkciót.

Egyikük például Will Sigmon volt, aki tiszta fotókat közölt. A bal oldali kép az iOS 12 rendszeren futó FaceTime szokásos helyzetét mutatja, a jobb oldali képen pedig az ARKiten keresztüli automatikus korrekció látható az iOS 13 rendszerben.

Az iOS 13 képes javítani a szemkontaktust a FaceTime alatt

A funkció az ARKit 3-at használja, iPhone X-re nem lesz elérhető

Mike Rundle, aki ügyeletben volt, elégedett az eredménnyel. Sőt, ez az egyik jellemzője, amelyet még 2017-ben megjósolt. Egyébként a jóslatok teljes listája érdekes:

  • Az iPhone folyamatos űrvizsgálattal képes lesz a környezetében lévő 3D objektumok észlelésére
  • Szemkövetés, amely a szoftvert képes előre jelezni a mozgást, és lehetővé teszi a rendszer felhasználói felületének szemmozgással történő vezérlését (az Apple 2017-ben vásárolta meg a SensoMotoric Instruments-t, amely ezen a területen vezetőnek számít)
  • Az arc szkennelésével kapott biometrikus és egészségügyi adatok (mi a személy pulzusa stb.)
  • Speciális képszerkesztés a közvetlen szemkontaktus biztosításához például a FaceTime alatt (ami most megtörtént)
  • A gépi tanulás fokozatosan lehetővé teszi az iPhone számára, hogy megszámolja a tárgyakat (a szobában tartózkodók száma, az asztalon lévő ceruzák száma, hány pólóm van a ruhatáramban...)
  • Azonnali tárgyak mérése, AR vonalzó használata nélkül (milyen magas a fal, ...)

Eközben Dave Schukin megerősítette, hogy az iOS 13 az ARKit-et használja a szemkontaktus javítására. Lassabb lejátszás közben észreveheti, hogy a szemüveg hirtelen torzul, mielőtt a szemre kerül.

Aaron Brager fejlesztő ezután hozzáteszi, hogy a rendszer egy speciális API-t használ, amely csak az ARKit 3-ban érhető el, és a legújabb iPhone XS / XS Max és iPhone XR modellekre korlátozódik. A régebbi iPhone X nem támogatja ezeket a felületeket, és a funkció nem lesz elérhető rajta.

Forrás: 9to5Mac

.