‘Hồ sơ Facebook’ vạch trần mảng tối xấu xí của mạng xã hội lớn nhất hành tinh
Facebook đang trải qua thời kỳ khủng hoảng bậc nhất kể từ bê bối Cambridge Analytica. Những tài liệu nội bộ bị rỏ rỉ khiến hình ảnh mạng xã hội xấu hơn bao giờ hết.
Facebook liên tục hứng chịu chỉ trích trong các năm qua vì vai trò trong phát tán tin giả, đặc biệt liên quan tới bầu cử Mỹ năm 2016. Hai tháng vừa qua, công ty lại lâm vào một cuộc khủng hoảng mới, bắt nguồn từ cựu nhân viên Frances Haugen.
Lời khai của bà Haugen vạch trần những mảng tối trong nội bộ Facebook. Không chỉ có vậy, liên minh 17 tờ báo lớn của Mỹ đã phối hợp, xem xét và đưa tin dựa trên tài liệu mà bà Haugen cung cấp.
Facebook phủ nhận tố giác của bà Haugen. CEO Mark Zuckerberg thậm chí còn viết một bài dài 1.300 chữ ám chỉ tài liệu chỉ được trích dẫn những đoạn gây hiểu nhầm cho mạng xã hội.
Dưới đây là một số thông tin đáng chú ý từ “Hồ sơ Facebook”:
Phát tán tin giả
Bà Haugen tố cáo “Facebook đánh lừa các nhà đầu tư và công chúng về vai trò của nó trong gây ra thông tin sai lệch và chủ nghĩa cực đoan bạo lực liên quan tới cuộc bầu cử Mỹ 2020 và cuộc bạo loạn ngày 6/1”.
Một trong những tài liệu nêu chi tiết nghiên cứu tháng 6/2019 có tên “Hành trình của Carol đến Qanon”. Trong đó, Facebook mở tài khoản cho Carol Smith – một bà mẹ 41 tuổi theo Đảng bảo thủ không có thật – để xem xét tác động của các thuật toán trang (page) và nhóm (group). Sau khi “Carol” theo dõi một số trang tick xanh của những nhân vật Đảng bảo thủ như Fox News, cựu Tổng thống Mỹ Donald Trump, chỉ mất hai ngày, thuật toán đã gợi ý bà theo dõi trang QAnon, một tổ chức thuyết âm mưu khét tiếng.
Một tài liệu khác trình bày nghiên cứu thực hiện sau cuộc bạo loạn Đồi Capitol 6/1, cho rằng Facebook đáng ra có thể làm nhiều điều hơn để ngăn chặn vụ việc.
Đáp lại, người phát ngôn Facebook khẳng định trách nhiệm của vụ bạo loạn thuộc về những người tấn công Đồi Capitol và những ai kích động họ.
Thiếu hỗ trợ trên toàn cầu
Theo tài liệu mà bà Haugen cung cấp, có sự chênh lệch về năng lực ngăn chặn phát ngôn thù hận và tin giả tại các nước như Myanmar, Afghanistan, Ấn Độ, Ethiopia và phần lớn khu vực Trung Đông so với phần còn lại của thế giới. Đây là nơi nhiều ngôn ngữ địa phương không được cập nhật.
Dù nền tảng của Facebook hỗ trợ hơn 100 ngôn ngữ, nhóm quản trị nội dung toàn cầu chỉ bao gồm 15.000 người đánh giá nội dung bằng 70 thứ tiếng tại hơn 20 địa điểm khắp thế giới.
Chẳng hạn, tại Ấn Độ – thị trường đông người dùng Facebook nhất, Facebook không có bộ lọc phát ngôn thù hận cho tiếng Hindi hay Bengali dù có hơn 600 triệu người nói tiếng này. Các nhà nghiên cứu Facebook thừa nhận điều đó đồng nghĩa nhiều nội dung không bao giờ bị đánh dấu hay có hành động phù hợp.
Tuy nhiên, người phát ngôn Facebook cho biết, công ty đã bổ sung bộ lọc phát ngôn thù hận cho tiếng Hindi vào năm 2018, Bengali năm 2020, Tamil và Urdu thời gian gần đây.
Ngoài ra, Giám đốc Chính sách Nhân quyền Facebook, Miranda Sissons, chia sẻ công ty có quy trình đánh giá và ưu tiên những nước có nguy cơ bạo lực và ảnh hưởng cao nhất ngoài đời. Họ sẽ triển khai hỗ trợ theo từng nước khi cần thiết.
Buôn người
Facebook nhận thức được những kẻ buôn người lợi dụng nền tảng ít nhất từ năm 2018, nhưng lại gặp khó khăn trong quản lý nội dung liên quan, theo tài liệu mà CNN có được.
Tài liệu nội bộ tháng 9/2019 nhắc đến cuộc điều tra của Facebook, trong đó có đoạn các đối tượng trong đường dây buôn người sử dụng Facebook, Instagram, Page, Messenger và WhatsApp.
Các tài liệu khác mô tả lại quá trình các nhà nghiên cứu Facebook đánh dấu và xóa bỏ các tài khoản Instagram dùng để buôn người, vạch ra các biện pháp đã thực hiện để giải quyết vấn đề, bao gồm gỡ một số hashtag. Dù vậy, CNN phát hiện một số tài khoản Instagram tương tự vẫn hoạt động tuần trước và quảng cáo buôn người. Sau khi CNN liên hệ, Facebook xác nhận các tài khoản vi phạm chính sách và đã xóa tài khoản lẫn bài viết.
Phát ngôn viên Facebook khẳng định công ty đã chống lại nạn buôn người trong nhiều năm và mục tiêu của họ là ngăn chặn bất kỳ kẻ nào muốn khai thác người khác hoạt động trên nền tảng.
Kích động bạo lực
Tài liệu nội bộ chỉ ra Facebook biết rằng, các chiến lược hiện tại không hiệu quả trong việc ngăn chặn phát tán bài viết kích động bạo lực, tại những nước có nguy cơ xung đột, chẳng hạn Ethiopia.
Facebook dựa vào các tổ chức xác minh bên thứ ba để xác định, đánh giá và xếp hạng thông tin sai sự thật trên nền tảng bằng công cụ nội bộ. Theo đó, Ethiopia, quốc gia xảy ra nội chiến năm ngoái, nằm trong số các nước có nguy cơ cao nhất. Báo cáo của Facebook cho biết, các tổ chức vũ trang ở đây đã dùng Facebook để kích động bạo lực, chống lại người thiểu số.
Đây không phải lần đầu Facebook bị chỉ trích vì vai trò trong cổ động phát ngôn thù địch, bạo lực. Sau khi Liên Hợp Quốc phê phán Facebook trong cuộc khủng hoảng Myanmar năm 2018, công ty đã thừa nhận chưa làm hết sức để ngăn chặn và ông Zuckerberg cũng hứa hẹn sẽ tăng cường nỗ lực quản trị của Facebook.
Dù vậy, bà Haugen nói rằng “Myanmar và Ethiopia chỉ là chương mở đầu”.
Người phát ngôn Facebook cho biết, công ty đã đầu tư 13 tỷ USD và 40.000 người cho an toàn và bảo mật trên nền tảng, cũng như có hơn 80 đối tác trong chương trình xác thực thông tin.
Tác động lên trẻ vị thành niên
Theo các tài liệu, Facebook chủ động gia tăng nền tảng người dùng trẻ tuổi, ngay cả khi nghiên cứu nội bộ gợi ý các nền tảng của nó, đặc biệt là Instagram, gây hiệu ứng tiêu cực lên sức khỏe tinh thần và hạnh phúc của người dùng.
Facebook vận dụng nhiều chiến lược để người trẻ lựa chọn Facebook làm nền tảng ưu tiên khi kết nối mọi người và sở thích. Chúng bao gồm thay đổi thiết kế và điều hướng căn bản để cho người dùng cảm thấy gần gũi, giải trí hơn.
Tuy nhiên, theo Thời báo Phố Wall, các nền tảng của Facebook “khiến vấn đề hình ảnh cơ thể trở nên xấu hơn với 1 trong 3 bé gái. Nghiên cứu nội bộ cũng phát hiện Instagram khiến các bé gái nghĩ nhiều hơn về tự sát, làm đau bản thân hay nhịn ăn.
Đáp lại, Giám đốc Chính sách công Instagram, Karina Newton, thừa nhận một số điểm, song khẳng định Thời báo Phố Wall chỉ tập trung vào vài phần của báo cáo và đưa tin tiêu cực.
Thuật toán thổi bùng chia rẽ
Năm 2018, Facebook điều chỉnh thuật toán Bảng tin để tập trung vào các “tương tác xã hội có ý nghĩa”. Dù vậy, theo tài liệu nội bộ mà CNN có được, không lâu sau thay đổi này, sự giận dữ và chia rẽ trên mạng lại được thổi bùng.
Phân tích 14 nhà xuất bản trên Facebook vào cuối năm 2018 cho thấy, càng nhiều bình luận tiêu cực, bài viết càng được bấm chuột nhiều hơn. Một nhân viên Facebook viết: “Cơ chế nền tảng của chúng ta không trung lập”.
Theo ICT News