Tanca l'anunci

La tercera versió beta per a desenvolupadors del sistema iOS 13 amaga molts gadgets nous. Un d'ells és la correcció automàtica del contacte visual. L'altra part llavors té la impressió que els estàs mirant directament als ulls.

Ara, quan estàs fent una trucada de FaceTime amb algú, molt sovint l'altra part pot veure que els teus ulls estan abatuts. Això es deu al fet que les càmeres no es troben directament a la pantalla, sinó a la vora superior per sobre d'ella. Tanmateix, a iOS 13, Apple presenta una solució poc convencional, on el nou ARKit 3 té un paper protagonista.

El sistema ara ajusta les dades de la imatge en temps real. Així, tot i que els teus ulls estan baixats, iOS 13 et mostra com si estiguessis mirant directament als ulls de l'altra persona. Diversos desenvolupadors que han provat la nova funció ja han aparegut a les xarxes socials.

Un d'ells va ser, per exemple, Will Sigmon, que va proporcionar fotos clares. La foto de l'esquerra mostra la situació estàndard durant FaceTime a iOS 12, la foto de la dreta mostra la correcció automàtica mitjançant ARKit a iOS 13.

iOS 13 pot arreglar el contacte visual durant FaceTime

La funció utilitza ARKit 3, no estarà disponible per a iPhone X

Mike Rundle, que estava de guàrdia, està encantat amb el resultat. A més, és una de les característiques que va predir el 2017. Per cert, tota la seva llista de prediccions és interessant:

  • L'iPhone serà capaç de detectar objectes en 3D al seu entorn mitjançant l'exploració espacial contínua
  • Seguiment del moviment ocular, que fa que el programari sigui capaç de predir el moviment i que permet controlar la interfície d'usuari del sistema amb el moviment ocular (Apple va comprar SensoMotoric Instruments el 2017, que es considera líder en aquest camp)
  • Dades biomètriques i de salut obtingudes mitjançant l'escaneig de la cara (quin és el pols de la persona, etc.)
  • Edició d'imatges avançada per garantir el contacte visual directe durant FaceTime, per exemple (que ara ha passat)
  • L'aprenentatge automàtic permetrà a poc a poc que l'iPhone compti objectes (el nombre de persones a l'habitació, el nombre de llapis a la taula, quantes samarretes tinc al meu armari...)
  • Mesura instantània d'objectes, sense necessitat d'utilitzar un regle AR (a quina alçada té la paret,...)

Mentrestant, Dave Schukin va confirmar que iOS 13 utilitza ARKit per corregir el contacte visual. Durant la reproducció més lenta, podeu veure com les ulleres es distorsionen de sobte abans de posar-se als ulls.

A continuació, el desenvolupador Aaron Brager afegeix que el sistema utilitza una API especial que només està disponible a ARKit 3 i que es limita als últims models d'iPhone XS / XS Max i iPhone XR. L'iPhone X antic no admet aquestes interfícies i la funció no estarà disponible.

Font: 9to5Mac

.