Những tiết lộ chấn động mới về Facebook

38


Cựu nhân viên Frances Haugen tiếp tục chia sẻ tài liệu nội bộ của Facebook với hàng loạt báo về những tác hại do mạng xã hội gây ra.

Dung túng cho nhóm cực hữu QAnon

Vào mùa hè 2019, một người có tên Carol Smith bắt đầu lên Facebook để đăng ký tài khoản mới. Tài khoản này tự nhận quan tâm đến các nội dung chính trị, nuôi dạy con cái và Cơ đốc giáo, đồng thời theo dõi một số tài khoản như Fox News và Tổng thống Donald Trump khi đó.

Frances Haugen chia sẻ trong chương trình 60 Minutes. Ảnh: CBS News

Frances Haugen chia sẻ trong chương trình 60 Minutes. Ảnh: CBS News

Dù chưa bao giờ bày tỏ sự quan tâm đến thuyết âm mưu, nhưng chỉ trong hai ngày, Facebook đã đề xuất Smith tham gia các nhóm liên quan đến QAnon – nhóm cực hữu lan truyền giả thuyết thế giới bị kiểm soát bởi một phe phái gồm những kẻ ấu dâm tôn thờ quỷ Satan. QAnon tổ chức những chiến dịch gây rối quy mô lớn, lan truyền thông tin sai lệch và đe dọa dùng bạo lực với đối thủ.

Tài khoản Smith không chủ ý theo dõi các nhóm QAnon được đề xuất, nhưng thuật toán Facebook vẫn hiển thị nội dung này. Trong vòng một tuần, News Feed của Smith chứa đầy các nhóm và trang đã vi phạm các quy tắc riêng của Facebook.

Smith không phải là người thật. Chính nhóm nghiên cứu do Facebook tuyển dụng đã tạo ra tài khoản này cùng hàng trăm tài khoản “người dùng thử nghiệm” khác trong năm 2019 và 2020 để đánh giá cơ chế mạng xã hội trong việc cung cấp thông tin sai lệch và gây chia rẽ thông qua hệ thống đề xuất của nền tảng.

Kết quả, nhóm nghiên cứu nhận ra trải nghiệm trên Facebook của Smith là “một loạt các nội dung cực đoan, âm mưu và tiêu cực”. Mạng xã hội thậm chí đã đẩy một số người dùng ngập trong các thuyết âm mưu bạo lực. Dù chỉ chiếm tỷ lệ nhỏ, con số này cũng lên tới hàng triệu người.

Nội dung nghiên cứu trên là một trong hàng nghìn trang tài liệu mà Haugen thu thập được. Báo cáo “Hành trình của Carol đến QAnon” đã được gửi lên Ủy ban Chứng khoán và Giao dịch Mỹ và Quốc hội Mỹ. Thông tin này cũng được gửi đến NBC News tuần qua.

Theo tài liệu nội bộ, các nhóm và trang liên quan đến thuyết âm mưu cũng tăng vọt trong năm 2019 và 2020. Riêng hè năm ngoái, hàng nghìn nhóm và fanpage QAnon tồn tại ở chế độ riêng tư với hàng triệu người theo dõi. Facebook chỉ bắt đầu trấn áp sau khi FBI xếp các nhóm này là mối đe dọa khủng bố tiềm tàng. Nhóm nghiên cứu của mạng xã hội từ lâu đã biết thuật toán và hệ thống gợi ý nội dung đã đẩy một số người dùng đến chỗ cực đoan. Tuy nhiên, các nhà quản lý và điều hành vẫn phớt lờ cảnh báo nội bộ, khiến các group chống vaccine, thuyết âm mưu và tin sai lệch đã lợi dụng sự dễ dãi đó để “đe dọa sức khỏe cộng đồng, an toàn cá nhân và dân chủ nói chung”.

“Nghiên cứu của Facebook cho thấy một nhóm nhỏ người dùng có thể chiếm quyền điều khiển nền tảng dễ dàng như thế nào”, Renée DiResta, Giám đốc của Stanford Internet Observatory, nhận xét với NBC News. “Nó trả lời cho câu hỏi về vai trò của Facebook trong sự phát triển của các thông tin sai lệch”.

Đại diện Facebook lên tiếng phản đối: “Đây là nghiên cứu về một người dùng giả định, nhưng là một ví dụ hoàn hảo mà chúng tôi thực hiện để cải thiện hệ thống và giúp đưa ra quyết định loại bỏ QAnon khỏi nền tảng”.

CEO Mark Zuckerberg cũng cho biết chương trình nghiên cứu của công ty là để “xác định các vấn đề quan trọng và giải quyết chúng”. Ông bày tỏ sự thất vọng vì các chia sẻ của Haugen.

Nhân viên Facebook bất bình vụ bạo loạn đồi Capitol

Theo tiết lộ của Haugen, khi những kẻ bạo loạn phá rào chắn và tấn công cảnh sát ở đồi Capitol hôm 6/1, một số nhân viên Facebook đã bày tỏ sự phẫn nộ. Tuy nhiên, vấn đề không được công ty đoái hoài.

“Tôi muốn giá trị của mình phù hợp với công việc tại đây”, một nhân viên nói, khi vụ bạo loạn tiếp diễn chiều 6/1. “Tôi đến đây với hy vọng dùng sức ảnh hưởng của mình góp phần thay đổi và cải thiện xã hội, nhưng tất cả những gì mà tôi thấy chỉ là sự bó hẹp và thoái thác trách nhiệm”.

“Tất cả đều đang được tôn trọng đúng mức, nhưng chúng ta chưa có đủ thời gian để tìm ra cách quản lý ngôn từ trên nền tảng mà không để xảy ra bạo lực”, một nhân viên khác nêu. “Chúng ta đã châm ngòi cho ngọn lửa này, và không nên ngạc nhiên nếu nó không được kiểm soát”.

Tài liệu mà Bloomberg nhận được cho thấy góc nhìn mới về Facebook: công ty công nghệ có lợi nhuận cao, nhưng đang có dấu hiệu sa sút tinh thần, và có xung đột nội bộ giữa các nhân viên.

Một ngày sau cuộc bạo loạn, một số nhân viên Facebook tiếp tục họp nội bộ để tranh luận thẳng thắn về việc kiểm soát nền tảng trong bầu cử. Nhiều nhân viên nói Facebook đã thất bại trong việc đưa ra hành động mạnh mẽ chống lại các nhóm tung quan thông tin sai lệch rằng cựu Tổng thống Trump đã thắng cử. Bên cạnh đó, các nhà lãnh đạo công ty bị chỉ trích khi không để các nhân viên “thiện chiến” và có kinh nghiệm hơn hạn chế tin giả một cách quyết liệt.

Phân tích nội bộ của Facebook về cuộc bạo động ngày 6/1 cho thấy, chính sách và thủ tục mà công ty đưa ra không đủ để ngăn chặn sự phát triển của các nhóm liên quan đến “Stop the Steal“, theo CNN. “Stop the Steal” là một trong những nhóm phát triển nhanh nhất trong lịch sử mạng xã hội. Cuối năm ngoái, nhóm này thu hút 320.000 người trong 48 tiếng để kêu gọi biểu tình trước khi bị xoá sổ.

Còn theo New York Times, nhiều nhân viên cố gắng cảnh báo về thông tin sai lệch và nội dung phản cảm trên nền tảng khi từ cuối năm ngoái. Họ thúc giục công ty hành động, nhưng thất bại hoặc gặp khó khăn khi giải quyết các vấn đề.

Trong khi đó, Facebook trả lời Bloomberg rằng họ đã điều hành tốt chiến dịch thông tin cử tri lớn nhất trong lịch sử Mỹ, đồng thời thực hiện nhiều bước để hạn chế nội dung tác động đến bầu cử, gồm việc đình chỉ tài khoản của Donald Trump và xóa nội dung vi phạm chính sách. 40 đội kiểm soát đã xóa hơn 5 tỷ tài khoản giả mạo, cùng hơn 265.000 bài viết trên Facebook và Instagram vi phạm chính sách can thiệp của cử tri tại Mỹ.

Kích động bạo lực tại Ấn Độ

Trích dẫn tài liệu bổ sung do Haugen cung cấp, New York TimesWall Street Journal đăng mô tả chi tiết việc lan truyền phát ngôn thù địch và nội dung kích động bạo lực ở Ấn Độ trên các ứng dụng của Facebook.

Cụ thể, các nội dung độc hại liên tục được đề xuất cho người dùng Ấn Độ. Vào ngày 4/2/2019, một nhà nghiên cứu của Facebook đã tạo tài khoản mới để xem trải nghiệm mạng xã hội với tư cách là một người sống ở Kerala sẽ như thế nào.

Trong ba tuần, tài khoản hoạt động theo một quy tắc đơn giản: Làm theo tất cả các đề xuất do thuật toán tạo ra để tham gia nhóm, xem video và khám phá các trang mới trên trang web. Kết quả là vô số lời nói căm thù, tin giả và cổ xúy bạo lực đã được ghi lại trong báo cáo nội bộ của Facebook.

“Theo dõi News Feed của người dùng thử nghiệm, tôi đã thấy nhiều hình ảnh về những người đã chết trong ba tuần qua nhiều hơn so với những gì tôi đã thấy trong toàn bộ cuộc đời mình trước đó”, nhà nghiên cứu viết.

Trong khi đó, tờ Wall Street Journal trích dẫn tài liệu rằng, Bajrang Dal – một nhóm người theo đạo Hindu – đã sử dụng WhatsApp để kích động bạo lực. Báo cáo đã đề xuất “gỡ xuống”, nhưng nhóm này vẫn tiếp tục hoạt động trên mạng xã hội màkhông bị can thiệp.

Theo thống kê từ các nhà nghiên cứu nội bộ, nội dung có tính chất kích động trên Facebook tăng vọt 300% kể từ tháng 12/2019 so với trước đó. Đây cũng là thời kỳ mà các cuộc biểu tình tôn giáo tràn ngập quốc gia đông dân thứ hai thế giới.

Cũng theo báo cáo, tin đồn và lời kêu gọi bạo lực lan truyền trên dịch vụ nhắn tin WhatsApp được cho là một trong các nguyên nhân khiến bạo lực trong cộng đồng gia tăng từ tháng 2/2020, góp phần gây ra cái chết của 53 người tại Delhi. Bên cạnh đó, người dùng Hindu và Hồi giáo cho biết họ phải đối mặt với “một lượng lớn nội dung khuyến khích xung đột, hận thù và bạo lực trên Facebook và WhatsApp”.

Phát ngôn viên Facebook Andy Stone từ chối bình luận về hoạt động của các nhóm Hindu trên mạng xã hội. Tuy nhiên, ông nhấn mạnh công ty đã cấm các nhóm hoặc cá nhân liên quan “sau khi tuân theo một quy trình cẩn thận, nghiêm ngặt và đa phương”. Hiện có hơn 300 triệu người dùng Facebook và hơn 400 triệu người dùng WhatsApp tại Ấn Độ. Năm ngoái, công ty cho biết đã đầu tư 5,7 tỷ USD để mở rộng hoạt động tại thị trường này.

Các quyết định “hai mặt

Bên cạnh Haugen, một nhân viên cũ khác cũng tố công ty thường có sự khác biệt giữa tuyên bố công khai với việc ra quyết định nội bộ. Ví dụ, liên quan tới cáo buộc Nga can thiệp vào cuộc bầu cử Tổng thống Mỹ năm 2016, một mặt đại diện Facebook lên truyền thông phát biểu về những nỗ lực dẹp yên các tranh cãi chính trị. Mặt khác, công ty nói với nội bộ rằng mọi thứ sẽ sớm yên và “chúng ta sẽ kiếm bộn tiền”.

Người tố cáo còn đề cập đến dự án Internet.org. Trên truyền thông, đại diện Facebook tuyên bố mục tiêu dự án kết nối mọi người trong “thế giới đang phát triển”. Tuy nhiên, mục đích thực sự là để tạo cho Facebook một chỗ đứng vững chắc, đồng thời trở thành “nguồn duy nhất” để họ thu thập dữ liệu từ các thị trường chưa được khai thác.

Cựu nhân viên này cũng lặp lại những lo ngại của Haugen về việc tác động của nền tảng Instagram với thanh thiếu niên, cũng như cơ chế về lan truyền thông tin sai lệch, giải quyết thông tin sai lệch hạn chế ngoài biên giới Mỹ.

Đại diện Facebook phủ nhận vấn đề, xem đây là nguồn tin một chiều và không đáng tin cậy.

Bảo Lâm tổng hợp