Tóm tắt
Việc Meta sử dụng trí tuệ nhân tạo để giám sát các nền tảng của mình đang tạo ra số lượng lớn các báo cáo chất lượng thấp, làm tiêu tốn nguồn lực và làm chậm các cuộc điều tra về lạm dụng trẻ em, theo một báo cáo của The Guardian. Tin tức này diễn ra khi các nhân viên thực thi pháp luật của New Mexico tuần trước đã khai rằng các báo cáo do AI tạo ra đang gây quá tải cho các nhà điều tra và làm chậm các vụ án khai thác trẻ em. Các sĩ quan trong chương trình Đội đặc nhiệm chống tội phạm qua Internet dành cho trẻ em (ICAC) đã đặc biệt đề cập đến hệ thống tự động của Meta, nói rằng chúng tạo ra hàng nghìn lời khuyên không thể sử dụng mỗi tháng và chuyển tiếp cho cơ quan thực thi pháp luật. “Chúng tôi nhận được rất nhiều lời khuyên từ Meta chỉ là rác rưởi,” Benjamin Zwiebel, đặc vụ đặc biệt của ICAC tại New Mexico, khai trong phiên tòa của bang chống lại công ty.
Một sĩ quan ICAC khác, giấu tên, nói với The Guardian rằng các lời khuyên qua mạng của bộ phận này đã tăng gấp đôi từ năm 2024 đến 2025. “Thật sự quá tải vì chúng tôi nhận được quá nhiều báo cáo, nhưng chất lượng của các báo cáo thực sự thiếu sót về khả năng chúng tôi thực hiện các hành động nghiêm túc,” họ nói. Trong một tuyên bố gửi đến Decrypt, người phát ngôn của Meta cho biết công ty đã hợp tác với cơ quan thực thi pháp luật từ lâu và lưu ý rằng Bộ Tư pháp và Trung tâm Quốc gia về Trẻ em mất tích và bị khai thác đã khen ngợi quy trình báo cáo của họ.
“Trong năm 2024, chúng tôi đã nhận hơn 9.000 yêu cầu khẩn cấp từ các cơ quan Mỹ và giải quyết chúng trong trung bình 67 phút, thậm chí nhanh hơn đối với các vụ liên quan đến an toàn trẻ em và tự tử,” người phát ngôn nói. “Tuân thủ luật pháp hiện hành, chúng tôi cũng báo cáo hình ảnh khai thác tình dục trẻ em rõ ràng cho NCMEC và hỗ trợ họ ưu tiên các báo cáo, từ việc giúp xây dựng công cụ quản lý vụ việc đến gắn nhãn các lời khuyên qua mạng để họ biết đâu là khẩn cấp,” họ bổ sung. Tuy nhiên, các sĩ quan ICAC cho biết một số báo cáo do Meta gửi không mang tính hình sự, trong khi những báo cáo khác thiếu bằng chứng đáng tin cậy cần thiết để theo đuổi vụ án. Sự gia tăng này diễn ra sau khi Luật Báo cáo (Report Act), được ký thành luật vào tháng 5 năm 2024, mở rộng yêu cầu báo cáo bao gồm các hành vi lạm dụng hoặc sắp xảy ra, buôn bán trẻ em qua đường tình dục và các hành vi khai thác liên quan, đồng thời yêu cầu các công ty giữ bằng chứng lâu hơn. Theo số liệu Meta vẫn là nguồn cung cấp báo cáo lớn nhất cho CyberTipline của NCMEC, chiếm khoảng hai phần ba trong số 20,5 triệu lời khuyên nhận được năm 2024, giảm so với 36,2 triệu năm 2023. Sự giảm này phần nào được cho là do các thay đổi trong quy trình báo cáo của Meta. Trong báo cáo về tính toàn vẹn tháng 8 năm 2025, Meta cho biết Facebook, Instagram và Threads đã gửi hơn 2 triệu báo cáo CyberTip cho NCMEC trong quý II năm 2025. Trong số đó, hơn 528.000 liên quan đến các tương tác không phù hợp với trẻ em, trong khi hơn 1,5 triệu liên quan đến việc chia sẻ hoặc tái chia sẻ nội dung lạm dụng tình dục trẻ em. Dù số liệu đó, JB Branch, một nhà vận động chính sách tại Public Citizen, cho biết việc dựa nhiều vào AI đã làm cho Luật Báo cáo kém hiệu quả hơn đối với các nhà điều tra xem xét vụ án, lập luận rằng trong khi các thuật toán từ lâu đã giúp giảm tải công việc của các nhà kiểm duyệt, thì các người xem xét con người vẫn là bộ lọc hiệu quả nhất. “Vấn đề ở đây là nhiều công ty công nghệ đã sa thải các nhà kiểm duyệt nội dung và thay thế bằng các tính năng bảo mật dựa trên AI,” Branch nói với Decrypt. “Kết quả là, có quá nhiều kết quả dương tính giả được chọn lọc do quá cẩn thận.” Trước đây, Branch nói, thường có nhiều người xem xét con người trong chuỗi xem xét hơn để có thể nhận diện và loại bỏ nội dung không đáng phải báo cáo. “Vì các công ty này đã loại bỏ các nhà kiểm duyệt hoặc người xem xét nội dung con người khỏi chuỗi, nhiều thứ hơn đang bị bỏ qua vì họ muốn cẩn thận hơn,” ông nói. “Họ đang kéo một mạng lưới rộng hơn và bắt giữ những thứ thậm chí không đủ điều kiện, và họ dựa nhiều vào các công cụ AI để làm điều đó.” Các nhà điều tra cho biết tác động của các lời khuyên do AI tạo ra sai lệch hiện đang được cảm nhận trong các đội đặc nhiệm xem xét chúng. “Nó làm giảm tinh thần. Chúng tôi đang chìm trong lời khuyên, và chúng tôi muốn ra ngoài và làm công việc này,” một sĩ quan ICAC được cho là đã nói. “Chúng tôi không có nhân sự để duy trì điều đó. Không thể theo kịp đợt sóng đang đến.”