Sensores LiDAR vs. 3D ToF: cómo Apple está mejorando AR para teléfonos inteligentes

manzana tieneimplementado un nuevo sensor en la cámara traserade sucuarta generación iPad Pro, y es bastante emocionante. Se llama Escáner LiDAR, un sensor de “detección de luz y rango” de escaneo, y es muy posible que lo conozca si sigue algunacoche sin conductornoticias. ¿Lo recibiremos también en el próximo iPhone 12 pro?

En primer lugar, un LiDAR es un sensor que utiliza láseres para crear un radar que examina el entorno y mide con precisión la distancia. Y si eso te suena familiar, es porque Android En los últimos años, los teléfonos han incluido sensores de tiempo de vuelo 3D en sus cámaras, un tipo de LiDAR sin escáner.

Tanto los escáneres LiDAR como los LiDAR sin escáner, como los sensores 3D ToF, utilizan la luz y la técnica de tiempo de vuelo para medir la distancia. Aún así, el tipo de escáner será más preciso ya que utiliza múltiples pulsos de láser en lugar de un solo pulso de láser de destello grande.

Para Android teléfonos con el componente 3D ToF, han visto mejoras considerables en la realidad aumentada (AR) y las fotos en modo retrato estilo bokeh. Samsung ha hecho un gran esfuerzo para incluir estos sensores en sus teléfonos inteligentes, y el Galaxy Nota 10+, Galaxy S20+, y Galaxy S20 Ultra todos tienen uno.

Mientras que la iPhone 12 Pro y 12 Pro Max probablemente incluirán un escáner LiDAR, ¿por qué? Apple optando por un componente más caro? Bueno, las tecnologías son muy similares, pero la forma en que capturan la información 3D es diferente.TLDR: AppleEl método de es mejor.

Escaneo LiDAR versus ToF 3D sin escáner

Un escáner LiDAR y un sensor de tiempo de vuelo 3D, en esencia, son lo mismo. Ambos son sensores basados en láser que usan el tiempo de vuelo para determinar distancias de objetos lejanos. Utilizando láseres infrarrojos (IR), miden el tiempo que tarda la luz en rebotar en los objetos del entorno capturado.

Con algoritmos sofisticados, estos sensores pueden ayudar a crear una nube de puntos 3D del área circundante. Luego, su teléfono inteligente puede transmitir la información a aplicaciones propias y de terceros. Esos datos pueden ayudar a determinar mejor la profundidad de campo en las fotos, por ejemplo example. ¿Otro? Ayuda a crear una experiencia AR más precisa e inmersiva, que coloca y administra objetos artificiales en cualquier escenario del mundo real al que apunte la lente de la cámara.

Las diferencias están en la forma en que ambos sensores capturan información 3D.

Android los teléfonos utilizan sistemas LiDAR sin escáner basados en flash. Estos sistemas, como SamsungDepthVision de , ilumina el área con un solo pulso de luz IR (razón por la cual no se ve). Todos los reflejos que rebotan en los objetos de la escena regresan al sensor donde se analizan y se crea un mapa 3D. Los sensores que utilizan este método son más baratos de fabricar, por lo que ha visto el aumento reciente de su inclusión en los teléfonos inteligentes.

Samsung Galaxy S20 Ultra y Galaxy Nota 10+. Imagen de Jon Knight/Gadget Hacks

el nuevo 2020 iPad Pro (y con suerte, el próximo iPhone 12 modelos Pro) utilizan un sistema de escaneo LiDAR. En lugar de un solo pulso de destello, envía un pulso más pequeño en un área y usa el tiempo de vuelo para determinar la distancia. Luego mueve la luz por el resto del entorno a “velocidades de nanosegundos” para capturar el resto del entorno.

Dado que los LiDAR giratorios son voluminosos y vulnerables a las vibraciones externas, Apple utiliza un LiDAR de estado sólido, un tipo sin partes móviles. Actualmente existen dos métodos que Apple puede utilizar: MEMS (sistemas microelectromecánicos) u OPA (matriz en fase óptica).

Los escáneres basados en MEMS utilizan microespejos para controlar la dirección de emisión y el enfoque. Los basados en OPA usan emisores ópticos para enviar ráfagas de partículas de luz en un patrón específico para crear una emisión direccional. El tamaño y el foco de la emisión pueden ser modificados por el sistema para llegar a cada punto del entorno.

No sabemos qué método. Apple utiliza ya que no publicó información sobre eso, pero en aras de compararlo con el sensor 3D ToF, las ventajas son casi las mismas.

Ventajas para Applemétodo de

Cuando se emite luz, no son solo los reflejos intencionados los que regresan. En cambio, los sensores recibirán reflejos indirectos, reflejos fuera de ángulo y múltiples reflejos causados por el entorno.

Si bien los algoritmos ayudan a minimizar la relación señal-ruido de la luz reflejada, estas complicaciones se vuelven más difíciles de calcular, especialmente cuando se usa un solo destello de luz que recibe todos los reflejos al mismo tiempo. El resultado con un solo pulso de láser de flash es que las distancias pueden medirse incorrectamente, a menudo a una mayor profundidad de lo que realmente son, lo que perturba la inmersión AR y altera la precisión de los efectos bokeh en fotos y videos.

Es por eso que un síntoma de escaneo LiDAR, como AppleEl escáner LiDAR de , es una mejora con respecto a los sensores 3D ToF. El escáner LiDAR mapea el área punto por punto, minimizando el ruido recibido y, por lo tanto, dando como resultado una lectura más precisa y una nube de puntos 3D.

Sensores LiDAR vs. 3D ToF: cómo Apple está mejorando AR para teléfonos inteligentes

Imagen víaApple

Sensores 3D ToF utilizados en Android Los teléfonos inteligentes también son vulnerables a la luz reflejada desde una superficie especular, una superficie plana que crea un reflejo similar al de un espejo.

Otra cosa a considerar con LiDAR es hasta dónde puede medir. AppleEl lanzamiento inicial de la tecnología está limitado a cinco metros, lo mismo que la mayoría de los sensores 3D ToF. Sin embargo, los LiDAR basados en puntos pueden alcanzar distancias aún mayores que los LiDAR sin escáner, por lo que en el futuro podríamos ver Apple superando a su competencia en rango.

Actualizaciones del boletín

Ingrese su dirección de correo electrónico a continuación para suscribirse a nuestro boletín