Facebook tuyên bố rằng trí tuệ nhân tạo có thể ngăn chặn hầu hết các phát ngôn gây thù hận, nhưng các tài liệu nội bộ cho thấy nó chỉ hiệu quả vài phần trăm.
Trên các phương tiện truyền thông, Facebook tuyên bố đã xóa hơn 90% nội dung thù hận trên nền tảng của mình. Ngược lại, tài liệu nội bộ do cựu HLV trưởng Francis Haogen công bố cho thấy con số thực tế chỉ là 3-5%. Mạng xã hội muốn người dùng tin rằng hầu hết nội dung tiêu cực đã bị xóa, nhưng thực tế nó vẫn tồn tại trên Facebook.
Sau sự xuất hiện của Haugen, công chúng chủ yếu quan tâm đến tác động của Instagram đối với sức khỏe của giới trẻ và các thuật toán kích động tin tức giả mạo trên News Feed của Facebook. Tuy nhiên, tài liệu cũng chỉ ra cách Facebook không thể kiểm soát ngôn ngữ, cách mạng xã hội sử dụng các thủ thuật để che giấu tình trạng này, và cách nó dựa vào trí tuệ nhân tạo để giám sát nội dung và tính kém hiệu quả của nó.
Tại phiên điều trần ở Thượng viện Hoa Kỳ vào tháng 10 năm 2020, Giám đốc điều hành Facebook Mark Zuckerberg đã đề cập đến báo cáo minh bạch của công ty, tuyên bố rằng mạng xã hội này đã xóa 94% nội dung thù địch trên nền tảng.
Vài tháng sau, ông tiếp tục lặp lại câu trả lời của mình tại phiên điều trần ở Hạ viện Hoa Kỳ, nói rằng ông đã xóa 12 triệu vi phạm chính sách trong các nhóm Facebook, 87% trong số đó thuộc sở hữu của nền tảng này.
Báo cáo minh bạch hàng quý của Facebook cho thấy mạng xã hội này luôn xử lý hơn 80% nội dung kích động thù địch. Ngược lại, ban lãnh đạo của mạng xã hội này đã thừa nhận vào tháng 3 rằng họ “chỉ thực hiện hành động đối với 3-5% nội dung”. Tài liệu tiết lộ trong báo cáo mới nhất.
Về cơ bản, hai con số này là chính xác vì chúng áp dụng cho các yếu tố khác nhau. Nói cách khác, Facebook “giấu nhẹm” những con số thực sự quan trọng và chỉ tung ra những dữ liệu không liên quan gì đến vấn đề.
Có hai cách để đối phó với nội dung gây thù hận trên Facebook, bao gồm tự báo cáo và phát hiện tự động bằng thuật toán AI. Phương pháp thứ hai hiệu quả hơn và có thể được thực hiện chủ động trước khi người dùng gắn cờ một báo cáo nội dung cụ thể.
Con số 94% là “tỷ lệ hoạt động” do Facebook công bố, là số lượng bài viết thù hận bị AI xóa sau khi phát hiện tổng số nội dung bị xóa. Facebook muốn người dùng tin rằng đây là lượng nội dung bị xóa trước khi gây hại nhưng thực tế, nó chỉ thể hiện vai trò của các thuật toán trí tuệ nhân tạo trong việc phát hiện thông tin độc hại trên nền tảng.
Số lượng nội dung thù địch không bị xóa là quan trọng đối với xã hội. Cách tốt nhất để xác định nó là tính tỷ lệ phần trăm nội dung bị xóa trên tổng số nội dung được ghi lại. “Tỷ lệ xóa” này sẽ đại diện cho số lượng bài viết độc hại mà Facebook thực sự xóa và số lượng mạng xã hội đang cố gắng ẩn.
Các tài liệu của Haugen cho thấy hơn 95% các bài đăng độc hại vẫn còn nguyên vẹn trên Facebook. Zuckerberg tuyên bố đã xóa 12 triệu bài đăng, nhưng bất chấp những nỗ lực đầu tư vào trí tuệ nhân tạo của Facebook, vẫn còn khoảng 250 triệu bài đăng trên Facebook.
Một chỉ số khác mà Facebook thường công bố là mức độ “phổ biến” của nội dung thù địch. Người phát ngôn của công ty cho biết chỉ có 0,05% nội dung độc hại được đọc, giảm gần 50% so với ba quý trước đó. Con số này tạo ấn tượng rằng các bài đăng độc hại rất hiếm trên Facebook, nhưng nó không phản ánh mức độ phổ biến cao của chúng trong các cộng đồng và người dùng cụ thể.
Zuckerberg đã nhiều lần nhấn mạnh rằng sự tiến bộ của công nghệ trí tuệ nhân tạo là chìa khóa giúp Facebook xử lý nội dung giả mạo. Mặc dù vậy, sau nhiều năm, trí tuệ nhân tạo của họ vẫn chỉ giải quyết được một phần nhỏ của vấn đề.
theo dõi có dây, Chưa có biện pháp đủ mạnh để giải quyết dứt điểm tình trạng kích động thù địch trên mạng xã hội. Việc kiểm soát nội dung rất khó và trí tuệ nhân tạo còn lâu mới có một giải pháp hoàn chỉnh như các đài truyền hình. Haugen nói rằng các công ty công nghệ lớn không thể được mong đợi là trung thực, nhưng các cơ chế pháp lý phải được thực hiện để buộc họ phát hành dữ liệu, chẳng hạn như tỷ lệ loại bỏ một số loại nội dung.
“Tỷ lệ này vẫn có thể bị làm giả, nhưng nó sẽ là một bước đi đúng hướng để ngăn chặn chiến lược mà Facebook đã sử dụng trong nhiều năm. Họ cần áp dụng điểm tín dụng để kiểm soát nội dung dựa trên tỷ lệ xóa, không phải là những con số vô nghĩa như hoạt động tỷ lệ hoặc mức độ phổ biến ”, tác giả Noah Giansiracusa nhận xét.
Dupuan (theo dõi có dây)
.