- Tham gia
- 5/10/17
- Bài viết
- 2,807
- Được thích
- 2,344
2339
#1

Trong trong những cảm biến quan trọng nhất của công nghệ nhận dạng khuôn mặt Face ID được Apple sử dụng trên các dòng iPhone gần đây (từ iPhone X trở lên) đó chính là camera đo chiều sâu TrueDepth. Không chỉ camera TrueDepth, một cảm biến đo chiều sâu khác cũng được Apple trang bị trên iPhone 12 và 13 Series đó chính là LiDAR, giúp thu thập dữ liệu hình ảnh tốt hơn.

Mới đây một người dùng Twitter có nickname là @ Wilson_boi_101 cho thấy cách camera TrueDepth và cảm biến LiDAR thu thập dữ liệu chiều sâu như thế nào thông qua một ứng dụng có tên là Night Vision LIDAR Camera. Với ứng dụng này, bạn có thể biết được cách camera TrueDepth và cảm biến LiDAR hoạt động như thế nào, nhìn thấy những gì và sự khác biệt giữa chúng.
Với camera LiDAR, bạn có thể thấy video bên dưới, cho thấy rằng mặc dù nó kém chính xác hơn so với camera TrueDepth, nhưng nó cho dữ liệu chiều sâu xung quanh chi tiết hơn, đó là lý do tại sao nó được sử dụng cho các mục đích liên quan đến AR như lập bản đồ các đối tượng hoặc toàn bộ căn phòng. Camera TrueDepth có độ chính xác cao hơn vì nó giúp cung cấp khả năng nhận diện khuôn mặt Face ID của Apple, đã có mặt kể từ iPhone X.
Nếu bạn muốn xem cách camera TrueDepth của mình hoạt động và hiển thị dữ liệu như thế nào, bạn cũng có thể tải xuống ứng dụng Night Vision LIDAR Camera từ App Store và với giá $0,99. Trong trường hợp bạn đang thắc mắc, nó cũng tương thích với dòng iPad Pro, ít nhất là những mẫu có cảm biến LiDAR.
Theo Wccftech
Xem thêm: