AI của Facebook 'làm ngơ' trước các bài đăng kích động thù địch
Với những khủng hoảng gần đây đã nhắm vào Facebook khiến cho giới công nghệ cho rằng các ứng dụng sử dụng trí tuệ nhân tạo của mạng xã hội này có thể xem như là "có cung như không".
- Hệ thống chấm công thông minh sử dụng công nghệ trí tuệ nhân tạo
- Các ông lớn công nghệ chung tay chống dịch - Loại bỏ tin giả
- Làn sóng tẩy chay quảng cáo "bùng phát" khi Facebook xuất hiện quá nhiều phát ngôn thù địch
Các kỹ sư cấp cao của Facebook thừa nhận hệ thống AI của công ty chỉ xóa được khoảng 3-5% các bài đăng có chứa nội dung căm thù, và khoảng 0,6% nội dung bạo lực hoặc vi phạm quy tắc cộng đồng.
Theo Wall Street Journal (WSJ), Facebook được cho là đang làm ngơ trước những tác động tiêu cực mà Instagram, WhatsApp và các dịch vụ khác của công ty mang lại. Ví dụ, sức khỏe tâm thần của các cô gái có thể bị tác động bởi những nội dung sai lệch, buôn người, bạo lực... trên mạng xã hội.
Giám đốc điều hành Facebook - Mark Zuckerberg cho biết, ông tin rằng AI của Facebook sẽ có thể phát hiện và xóa bỏ phần lớn các nội dung có vấn đề trước năm 2020.
Dù được áp dụng AI từ rất lâu nhưng những cuộc khủng hoảng lòng tin gần đây của người dùng Facebook làm lộ khả năng sử lý của trí tuệ nhân tạo này.
Công ty nói rằng những bài viết có chứa nội dung bạo lực, kích động thù địch... đều bị AI xử lý trước khi người dùng xem được. Theo báo cáo của Facebook, tỉ lệ phát hiện này là trên 97% (tháng 2/2020).
Sau khi thông tin này được công bố, rất nhiều tổ chức dân quyền và học giả nghi ngờ về số liệu thống kê của Facebook, họ cho rằng mọi thứ không khớp với các nghiên cứu bên ngoài.
Rashad Robinson, chủ tịch nhóm dân quyền Color of Change, chia sẻ với WSJ: “Facebook sẽ không bao giờ công khai mọi thứ. Làm thế nào để công ty có được con số thống kê đó?”.
Đại diện Facebook - Guy Rosen nói với WSJ rằng mặc dù dữ liệu không thường xuyên được cập nhật, nhưng điều quan trọng hơn là phải xem xét tổng thể các bài viết căm thù đã bị hạn chế như thế nào trên Facebook.
Những phát hiện của WSJ được công bố sau khi cựu nhân viên Facebook - Frances Haugen tố cáo công ty trước Quốc hội. Các thuật toán của Facebook đôi khi có thể gặp khó khăn trong việc xác định đâu là ngôn từ kích động thù địch và đâu là bạo lực, dẫn đến các video và bài đăng có hại sẽ bị lưu lại trên nền tảng quá lâu.
Facebook đã xóa gần 6,7 triệu nội dung thù địch khỏi nền tảng từ tháng 10 đến tháng 12 năm 2020. Một số bài đăng đã bị xóa liên quan đến việc bán nội tạng, nội dung khiêu dâm và súng đạn, theo một báo cáo của WSJ.
Tuy nhiên, hệ thống của Facebook có thể bỏ sót một số nội dung bao gồm các video bạo lực và các bài đăng tuyển dụng được chia sẻ bởi các cá nhân liên quan đến bạo lực băng đảng, buôn người và các băng đảng ma túy.
Theo Tạp chí Điện tử
Tối thiểu 10 chữ Tiếng việt có dấu Không chứa liên kết
Gửi bình luận