Apple đang có kế hoạch quét ảnh trên iPhone tại Mỹ nhằm tìm ảnh lạm dụng trẻ em

IMEI Phạm

Well-Known Member
Tham gia
2/6/19
Bài viết
1,842
Được thích
504
1025 #1

Apple dự định cài đặt phần mềm trên iPhone tại Mỹ nhằm quét hình ảnh lạm dụng trẻ em, dân theo các nguồn tin liên quan và đã gây báo động cho các nhà nghiên cứu bảo mật, khi cảnh báo rằng Apple có thể mở ra cánh cửa giám sát thiết bị cá nhân của hàng triệu người dùng.

Theo đó, Apple đã trình bày chi tiết về hệ thống được đề xuất được gọi là "neuralMatch" cho một số học giả Mỹ vào đầu tuần này, dẫn theo 2 nhà nghiên cứu bảo mật đã được tóm tắt về cuộc họp trực tuyến đó.

Ngay sau đó, Apple đã xác nhận kế hoạch của mình trong bài đăng trên blog, khi cho biết công nghệ quét này là một phần của bộ hệ thống bảo vệ trẻ em mới sẽ "phát triển và mở rộng theo thời gian". Các tính năng này sẽ được triển khai như một phần của iOS 15 dự kiến sẽ được ra mắt vào tháng 9/2021 tới đây.

Apple cho biết như sau:

"[....] Công nghệ mới sáng tạo này cho phép Apple cung cấp thông tin có giá trị và có thể hành động cho NCMEC và cơ quan thực thi pháp luật liên quan đến sự phổ biến của CSAM (hay Child Sexual Abuse Material, tài liệu lạm dụng tình dục trẻ em) đã được biết.
Và làm như vậy trong khi cung cấp các lợi ích bảo mật đáng kể so với các kĩ thuật hiện có vì Apple chỉ tìm hiểu về ảnh của người dùng nếu họ có bộ sưu tập CSAM đã biết trong tài khoản Ảnh iCloud của mình. Ngay cả trong những trường hợp này, Apple chỉ tìm hiểu về những hình ảnh phù hợp với CSAM đã được biết".
Các đề xuất này là nỗ lực của Apple nhằm tìm sự thỏa hiệp giữa lời hứa bảo vệ quyền riêng tư của khách hàng và các yêu cầu từ chính phủ, cơ quan thực thi pháp luật và các nhà vận động an toàn cho trẻ em nhằm được hỗ trợ nhiều hơn trong điều tra tội phạm gồm khủng bố và nội dung khiêu dâm trẻ em.


Căng thẳng giữa các công ty công nghệ như Apple và Facebook, khi đã bảo vệ việc sử dụng mã hóa ngày càng tăng trong các sản phẩm, dịch vụ và việc thực thi pháp luật chỉ gia tăng kể từ khi nhà sản xuất iPhone ra tòa với FBI vào năm 2016 vì quyền truy cập vào iPhone của nghi phạm khủng bố sau vụ nổ súng ở San Bernardino, CA.

Các nhà nghiên cứu bảo mật trong khi ủng hộ các nỗ lực chống lạm dụng trẻ em vẫn lo ngại rằng Apple có nguy cơ tạo điều kiện cho các chính phủ trên khắp thế giới truy cập vào dữ liệu cá nhân của công dân và có khả năng vượt xa mục đích ban đầu.

"Đó là ý tưởng hoàn toàn kinh khủng vì nó sẽ dẫn đến việc giám sát phân tán hàng loạt với.... điện thoại và laptop của chúng ta", Ross Anderson, giáo sư kĩ thuật bảo mật tại Đại học Cambridge cho biết.

Mặc dù hệ thống hiện được đào tạo nhằm phát hiện lạm dụng tình dục trẻ em nhưng hệ thống này có thể được điều chỉnh để có thể quét mọi ảnh và văn bản được nhắm đến với mục tiêu khác như các vụ chặt đầu của khủng bố hoặc các dấu hiệu chống chính phủ tại các cuộc biểu tình, các nhà nghiên cứu cho biết. Hành động tiền lệ của Apple cũng có thể làm tăng áp lực lên các công ty công nghệ khác sử dụng các kĩ thuật tương tự.

"Điều này sẽ làm vỡ kiềm chế - chính phủ sẽ yêu cầu từ tất cả mọi người", Matthew Green, giáo sư bảo mật tại Đại học Johns Hopkins cho biết, người được cho là nhà nghiên cứu đầu tiên đăng dòng tweet về vấn đề này.


Alec Muffett, nhà nghiên cứu bảo mật và cũng là nhà vận động quyền riêng tư, người từng làm việc tại Facebook và Deliveroo cho biết động thái của Apple là "kiến tạo" và là "bước tiến lớn và thoái trào với quyền riêng tư cá nhân". "Apple đang gỡ bỏ quyền riêng tư nhằm kích hoạt 1984", anh cho biết.

Hệ thống lưu trữ ảnh dựa trên đám mây và các website mạng xã hội đã quét hình ảnh lạm dụng trẻ em nhưng quá trình đó trở nên phức tạp hơn khi cố gắng truy cập vào dữ liệu được lưu trữ trên thiết bị cá nhân.

Hệ thống của Apple ít xâm lấn hơn ở chỗ việc sàng lọc được thực hiện trên điện thoại và "chỉ khi có kết quả trùng khớp thì thông báo sẽ được gửi lại cho những người đang tìm kiếm", lan Woodward, giáo sư bảo mật máy tính tại Đại học Surrey cho biết. "Cách tiếp cận phi tập trung này là cách tiếp cận tốt nhất mà bạn có thể áp dụng nếu bạn đi theo con đường này".

Thuật toán neuralMatch của Apple sẽ liên tục quét ảnh được lưu trữ trên iPhone của người dùng Mỹ và đã được tải lên hệ thống sao lưu iCloud của mình. Ảnh của người dùng được chuyển đổi thành chuỗi số thông qua quá trình gọi là "hashing" và sẽ được so sánh với ảnh trên cơ sở dữ liệu về các hình ảnh lạm dụng tình dục trẻ em đã được biết.

Hệ thống đã được đào tạo về 200 ngàn ảnh lạm dụng tình dục do NCMEC (hay National Center for Missing and Exploited Children, trung tâm quốc gia về trẻ em mất tích và bị bóc lột) thu thập.


Theo những người được giới thiệu tóm tắt về kế hoạch này, mỗi bức ảnh được tải lên iCloud ở Mỹ sẽ được cấp "chứng từ an toàn" khi cho biết ảnh đó có bị nghi ngờ hay là không.

Sau khi một số bức ảnh nhất định được đánh dấu là nghi ngờ, Apple sẽ cho phép giải mã tất cả các bức ảnh bị nghi ngờ và nếu có vẻ là bất hợp pháp thì ảnh đó sẽ chuyển cho các cơ quan có liên quan. Chi tiết hơn, bạn có thể xem tại đây.



 
Last edited by a moderator:
Top Bottom