La última beta para desarrolladores de iOS 13 introduce una de las funciones más curiosas que Apple nunca anunció. Ahora FaceTime cambia la posición de tus pupilas mediante realidad aumentada para que la persona al otro lado de la pantalla perciba que la estás mirando a los ojos.
Un problema intrínseco de las videollamadas (o de los selfies, si lo piensas) es que tienes que mirar a la cámara para que en pantalla salgas “mirando a los ojos”. Y no puedes mirar a la cámara si estás prestando atención a lo que ocurre en pantalla. El resultado es que dos personas que intentan mirarse a los ojos en una pantalla se verán siempre a sí mismos con la mirada desviada hacia abajo.
La nueva función de FaceTime, presumiblemente basada en aprendizaje automático y ARKit, edita la dirección de la mirada para salgas con las pupilas “mirando a cámara” siempre que estés prestando atención a la pantalla. Se llama “FaceTime Attention Correction” y funcionará tanto en iOS 13 como en iPadOS, pero por ahora solo está disponible en el iPhone XS y el iPhone XS Max, suponemos que por limitaciones relacionadas con el procesador y Face ID.
Si estás probando la beta 3 de iOS 13 en uno de estos terminales, puedes activar o desactivar la corrección de atención en los ajustes de FaceTime. Funciona bastante bien, pero hay un ligero efecto tembleque que deforma los ojos cuando pasas un objeto por delante o haces un movimiento rápido. Es un comienzo. No hay que olvidar que el efecto lo está aplicando un teléfono… en tiempo real. Millones de cálculos para que tu crush y tú tengáis una conversación más íntima.
Fuente: Gizmodo