Thuật toán xếp nội dung khiến Facebook lao đao

21


Cựu quản lý Facebook tố thuật toán của công ty xếp nội dung dựa trên sự tương tác, khiến bài đăng gây sốc có thể được ưu tiên lên đầu News Feed.

Trong nhiều năm, bảng tin News Feed với nội dung được tối ưu hóa và đề xuất hợp lý là yếu tố giúp Facebook thành công và thu hút hàng tỷ người dùng trên thế giới. Thế nhưng, cựu nhân viên Frances Haugen công khai hàng loạt tài liệu nội bộ cho thấy những tác động của nền tảng với thanh thiếu niên, chia rẽ quốc gia và cho phép chủ nghĩa cực đoan phát triển. Tệ hơn, họ biết điều đó nhưng chọn cách phớt lờ vấn đề để bảo vệ lợi nhuận của mình.

Frances Haugen tại phiên điều trần trước Thượng viện Mỹ ngày 5/10. Ảnh: Reuters

Frances Haugen tại phiên điều trần trước Thượng viện Mỹ ngày 5/10. Ảnh: Reuters

Haugen có nhiều năm làm việc liên quan đến thuật toán và tự nhận có kiến thức nền tảng về “quản lý sản phẩm theo thuật toán”. Trong cuộc phỏng vấn với WSJ ngày 3/10 và phiên điều trần trước Thượng viện Mỹ ngày 5/10, bà liên tục nhấn mạnh thuật toán của Facebook được thiết kế để hiển thị cho người dùng những nội dung mà họ có nhiều khả năng tương tác nhất.

“Điều này gây ra nhiều vấn đề với Facebook, gồm thúc đẩy sự chia rẽ, thông tin sai lệch và nhiều nội dung độc hại khác”, Haugen nói. “Nếu làm cho thuật toán an toàn hơn, mọi người sẽ dành ít thời gian hơn trên nền tảng, cũng ít bấm vào quảng cáo hơn, Facebook sẽ kiếm được ít tiền hơn”.

Theo giới quan sát, những tiết lộ mới về cơ chế hoạt động của thuật toán khiến Facebook sẽ ngày càng đánh mất niềm tin đối với người dùng và các nhà đầu tư thời gian tới. “Các thuật toán trên Facebook sẽ không biến mất, nhưng có nhiều cách để cải thiện chúng”, một chuyên gia về thuật toán và AI nói với CNN. “Tuy nhiên, nó sẽ yêu cầu một thứ mà Facebook từ trước đến nay miễn cưỡng không muốn làm: Minh bạch hơn và cho người dùng quyền kiểm soát nhiều hơn”.

Thuật toán Facebook có gì?

Facebook mà người dùng đang trải nghiệm ngày nay – với luồng thông tin và quảng cáo được thuật toán chọn lọc liên tục – là mạng xã hội hoàn toàn khác so với những ngày đầu.

Năm 2004, khi Facebook lần đầu xuất hiện dành cho các sinh viên đại học, việc điều hướng đơn giản và tẻ nhạt hơn: Nếu muốn xem nội dung bạn bè chia sẻ, người dùng phải lần lượt truy cập từng hồ sơ của họ.

Điều này đã thay đổi từ năm 2006 khi Facebook giới thiệu News Feed – cung cấp thông tin của nhiều người cùng lúc. Từ đó, Facebook được cho là đã dùng các thuật toán để lọc nội dung mà người dùng đã xem trên News Feed.

Chris Cox, Giám đốc sản phẩm Facebook, hồi 2015 tiết lộ trên Time rằng việc kiểm duyệt và ưu tiên hiển thị rất cần thiết. Vì nếu không, người dùng sẽ bị quá tải khi vào News Feed với sự tràn ngập các đường link, status, ảnh, video… từ nhiều nguồn khác nhau. Các thông tin này cũng bị trôi rất nhanh, khiến họ có thể bỏ lỡ cập nhật mới của bạn bè, người thân..

Theo thời gian, thuật toán liên tục phát triển và người dùng cũng quen với cách trình bày nội dung của mạng xã hội.

Có thể tưởng tượng thuật toán gần giống với công thức nấu ăn, trong đó nguyên liệu là đầu vào và món ăn cuối cùng là đầu ra. Trên Facebook và các trang mạng xã hội khác, người dùng và hành động của họ – những gì họ chia sẻ, tương tác – là đầu vào. Còn những gì mạng xã hội hiển thị, dù là bài đăng từ bạn bè hay nội dung quảng cáo về sản phẩm nào đó, là kết quả đầu ra.

Ở mức tốt nhất, các thuật toán giúp cá nhân hóa nguồn cấp dữ liệu, giúp người dùng khám phá những người mới và nội dung phù hợp với sở thích của họ dựa trên hoạt động trước đó. Nhưng điều tồi tệ nhất, như Haugen và các chuyên gia khác chỉ ra, là nguy cơ khiến họ tiếp xúc với nội dung độc hại hoặc chứa thông tin sai lệch. Những nội dung này có thể giữ mọi người ở lại lâu hơn, từ đó giúp Facebook kiếm nhiều tiền hơn bằng cách hiển thị nhiều quảng cáo hơn.

Nhiều thuật toán hoạt động phối hợp để tạo ra trải nghiệm mà người dùng đang thấy trên Facebook, Instagram và các nền tảng khác. “Sửa thuật toán là điều thực sự khó vì chúng đã trở thành một phần của những hệ thống phức tạp với nhiều đầu vào”, Hilary Ross, một chuyên gia của Đại học Harvard, nhận định.

Facebook cần minh bạch như thế nào?

Tuy nhiên, có nhiều cách để làm cho các quy trình mà Facebook đang thực hiện trở nên rõ ràng và cung cấp cho người dùng nhiều quyền hơn, cũng như được biết về cách thức chúng hoạt động. Theo Margaret Mitchell, chuyên gia về AI và là cựu nhân viên Google, người dùng cần biết chi tiết lý do tại sao họ nhìn thấy những gì đang hiển thị, như phản hồi các bài đăng, quảng cáo…

Theo Mitchell, Facebook có thể cho phép người dùng tùy chọn xem những thứ được tối ưu hóa cho mình, như tần suất muốn xem nội dung từ gia đình, bạn bè, hoặc hình ảnh em bé. “Tại sao không để người dùng kiểm soát chúng?”, bà đặt câu hỏi. “Minh bạch là chìa khóa, vì nó khuyến khích hành vi tốt từ các mạng xã hội”.

Sasha Costanza-Chock, Giám đốc nghiên cứu của Algorithmic Justice League, cho rằng cần tăng cường kiểm toán độc lập đối với các hoạt động của thuật toán. Các nhà nghiên cứu, nhà báo điều tra hoặc chuyên gia thuộc các cơ quan quản lý sẽ tham gia vào quy trình này, bởi họ có kiến thức và thẩm quyền để yêu cầu quyền truy cập vào các hệ thống thuật toán.

Tuy vậy, một số chuyên gia đánh giá, rào cản khiến Facebook không thay đổi thuật toán là mạng xã hội này quá tập trung vào tầm quan trọng của sự tương tác hoặc thời gian người dùng dành cho việc cuộn, nhấp chuột vào các bài đăng và quảng cáo trên nền tảng. “Sẽ rất khó thay đổi, nó liên quan đến cảm giác người dùng khi sử dụng Facebook, chứ không hẳn chỉ là thời gian họ gắn bó trên đó”, James Mickens, Giáo sư khoa học máy tính tại Harvard, nhận xét.

Dù hy vọng Facebook điều chỉnh thuật toán nhiều hơn để hướng tới lợi ích công cộng, ông băn khoăn: “Điều gì sẽ thuyết phục Facebook và các công ty tương tư bắt đầu thay đổi theo hướng này?”.

Trong khi đó, theo Haugen, về cơ bản, Facebook quyết định về những nội dung họ muốn người dùng xem, nhưng giữ bí mật về quyết định đó với công chúng vì thay đổi thuật toán có thể ảnh hưởng đến thu nhập của công ty.

Kara Alaimo, Phó giáo sư tại Trường Truyền thông Lawrence Herbert tại Đại học Hofstra, nhận định: “Nếu không thể từ bỏ nền tảng này ngay lập tức – điều mà thực tế khó xảy ra, đã đến lúc phải nghĩ cách bảo vệ bản thân và người thân, cũng như bắt đầu dựa vào nguồn khác cho niềm vui và sự sáng tạo – như công viên, sở thích, bạn bè… Đây có lẽ là cách duy nhất để khiến công ty nghiêm túc xem xét các mối đe dọa mà họ đang gây ra cho người dùng và nỗ lực khắc phục chúng”.

Bảo Lâm (theo CNN)