Quản trị rủi ro đạo đức cho sản phẩm sử dụng A.I.

Khảo sát của Tech Pro cho thấy có 24% các doanh nghiệp đang lên kế hoạch sử dụng trí tuệ nhân tạo. Nổi bật là các công ty trong lĩnh vực y tế, dịch vụ tài chính và công nghiệp xe hơi General Motor đã sử dụng A.I. để thử nghiệm 200.000 phương án tiếp thị, từ đó tìm ra phương án bán hàng tốt nhất. Tại Mỹ, PwC đã thu thập một lượng lớn dữ liệu từ Cục điều tra dân số Mỹ, cho thấy 320 triệu người dân Mỹ đã giúp xây dựng một mô hình A.I. giúp quyết định tài chính. Mô hình A.I. này dự đoán được khi nào mọi người khi mua sắm sẽ tiêu vào món đồ nào. Các công ty tài chính dựa vào đó, dự đoán xu hướng tiêu dùng này để quyết định có chấp nhận cho vay hay không. Hay giữa năm 2019, Trung Quốc công bố hệ thống chấm điểm công dân bằng trí tuệ nhân tạo. Thông qua việc theo dõi các hoạt động của công dân qua các camera công cộng, nhận diện họ bằng Deep Learning, kết hợp với những thông tin có được qua Big Data và đưa ra điểm. Ai được điểm cao, người đó sẽ được ưu tiên trong các dịch vụ cần xếp hàng hay được vay tiền tín chấp nhiều hơn.

Tuy nhiên, câu hỏi đặt ra khi A.I. quyết định sai về độ tin cậy của một con người, hay khả năng “xù nợ”, hay cả việc quyết định sinh mạng… thì ai là người chịu trách nhiệm? Các nhà khoa học dữ liệu và kỹ sư phần mềm cũng là con người, có thành kiến hay sự chủ quan, và khi họ để những thành kiến này len lỏi vào các thuật toán hoặc các bộ dữ liệu vốn được sử dụng nhằm huấn luyện, A.I.sẽ tạo ra nhiểu hệ quả khó đoán, đôi khi là không chấp nhận được với con người.

Theo Phó Giáo sư Truyền Trần của Đại học Deakin, có rất nhiều lý do khiến A.I. hoạt động sai, tuy nhiên về khía cạnh dữ liệu có 3 lý do cơ bản khiến A.I. đưa ra kết quả sai:

  • Bias (thiên kiến): có thể hiện nôm na thiên kiến trong trường hợp này là dùng A.I. chuyên giải toán thì không thể viết văn, mỗi A.I. chỉ hoạt động tốt theo một lĩnh vực cụ thể, câu chuyện tin giả (Fake News) trên các mạng xã hội có thể là minh chứng rõ nhất cho điều này, Facebook từ lâu đã phát triển thuật toán machine-learning tên là DeepText. Hàng trăm người được tập trung lại để kiểm tra hàng trăm nghìn post nhằm nhận diện và phân loại tin giật gân. Họ quyết định tít bài nào là giật gân còn tít nào thì không. Sau đó, Facebook xây dựng thuật toán machine learning xử lý trên những dữ liệu mà con người đã phân loại. Tuy nhiên, machine – learning này lại không giúp được gì nhiều cho Facebook để lọc tin giả (Fake News), vì sự thật thì khó để phân định hơn nhiều so với nhận diện các thủ thuật câu khách, giật gân trong một cụm ngắn như tiêu đề bài viết.
  • Misuse (mục đích sử dụng sai): bản thân trí tuệ nhân tạo chỉ là công cụ, con người có thể dùng chúng sai mục đích ban đầu. Điển hình là vụ bê bối Cambridge Analytica, trong đó dữ liệu 77% người sử dụng đã bị thu thập và lạm dụng một cách không chính đáng bởi công ty tư vấn chính trị (tổ chức đã giúp ông Donald Trump đắc cử Tổng thống Hoa Kỳ năm 2016). Facebook và thuật toán gợi ý trên News Feed được thiết lập để thể hiện những thông tin người dùng quan tâm. Vì vậy, nếu ai đó chia sẻ một câu chuyện chính trị phù hợp với sở thích của người dùng thì dù là thông tin sai vẫn sẽ được gợi ý trên News Feed. Cử tri Mỹ không hề biết điều này, và đây là kẽ hở của công nghệ để lợi dụng để định hướng dư luận.
  • Misalignment (thiếu linh hoạt): Theo ông Lê Công Thành, Chủ tịch công ty công nghệ Chọn lọc thông tin (InfoRe Technology), dữ liệu không có tính đúng sai, tuy nhiên người lập trình thì có thể xử lý sai do năng lực cá nhân. Năm 2018, xe tự lái của Uber đã có một tai nạn trong quá trình thử nghiệm. Chiếc xe tự lái đã đâm vào một phụ nữ đang băng qua đường sai luật. Hệ thống của xe đã quyết định không cần phản ứng ngay khi nhìn thấy người phụ nữ đang băng qua đường. Trong trường hợp này, A.I. đã không được huấn luyện cụ thể để cân nhắc mức độ thiệt hơn giữa tính mạng con người và hành động vi phạm luật giao thông. Điều này phụ thuộc rất lớn vào nhân đạo ngay từ ban đầu của nhà phát triển.

Theo PGS Truyền Trân, trí tuệ nhân tạo là công nghệ có tính phổ quát, tương tự như điện. Nếu có những chính sách tiêu chuẩn an toàn về điện thì việc phát triển và sử dụng trí tuệ nhân tạo cũng cần có những chính sách cụ thể. Những chính sách này có thể có ở cả 4 mức độ: quy định pháp lý; tiêu chuẩn ngành; cấp doanh nghiệp; cấp người dùng.

  • Quy định pháp lý: cần có quy định việc sử dụng trí tuệ nhân tạo trong một số trường hợp như tình huống khẩn cấp, thiếu thông tin sẽ được thực hiện như thế nào. A.I. hiện nay đã có thể đáp ứng phần nào việc đưa ra dự đoán nhưng vẫn còn chưa tốt trong việc đưa ra quyết định.
  • Tiêu chuẩn ngành: việc áp dụng trí tuệ nhân tạo cần có những giới hạn. Ví dụ trong ngành y tế, A.I. chỉ được phép đưa ra các kiến nghị hay đưa ra các lựa chọn cho bác sỹ. Còn bác sỹ vẫn là người duy nhất được lựa chọn phương pháp điều trị, phác đồ cần thiết.
  • Cấp doanh nghiệp: vấn đề sẽ trở nên phức tạp hơn. Các doanh nghiệp cần tìm được sự cân bằng giữa 3 yếu tố: chi phí, rủi ro và đạo đức.
  • Đối với người dùng cuối, mọi thứ sẽ nằm ở thoả thuận giữa bên cung cấp dịch vụ và người dùng.

Hạn chế rủi ro đạo đức từ dữ liệu đầu vào

Không thể phủ nhận những lợi ích của trí tuệ nhân tạo đối với hoạt động sản xuất kinh doanh. A.I. giúp các doanh nghiệp thực hiện nhiều công việc trên quy mô rất lớn, trong thời gian ngắn, từ đó tối ưu chi phí. Nhưng AI cũng có những hạn chế. Dễ thấy nhất là tỷ lệ đúng/sai. Theo ông Thành, cả 3 lý do trên đều có nguồn gốc từ cách xử lý dữ liệu đầu vào, khi A.I. hiểu sai sẽ ra quyết định sai và gây ra nhiều hệ quả, trong đó có những hệ quả vi phạm vào quy chuẩn đạo đức của con người.

Theo ông Pierre Bonnet, chuyên gia quản trị dữ liệu, Phó chủ tịch mảng sản phẩm của TIBCO Software, việc xử lý dữ liệu rất quan trọng, điều này giúp A.I. có được chất lượng dữ liệu “sạch” nhất, từ đó cho ra các kết quả sát sát với nhu cầu con người. Với xu hướng chuyển đổi số, dữ liệu di chuyển nhanh hơn và phát triển theo tốc độ cấp số nhân. Việc thu thập và sửa lỗi dữ liệu có nhiều mức độ, ở ngưỡng đơn giản có thể áp dụng ngay, các doanh nghiệp SMEs có thể làm như sau:

  • Sàng lọc các giá trị của dữ liệu
  • Khớp các dữ liệu bị lặp
  • Xoá các dữ liệu không còn giá trị (dữ liệu chết)

Việc quy trách nhiệm cho cá nhân hay bộ phận nào liên quan đến dữ liệu sai cũng phải cần có. Quan điểm hiện nay là ai phát hiện lỗi thì người đó sửa. Nhưng khi làm việc này lại liên quan thêm đến việc cấp quyển cho người phát hiện lỗi. Bình thường các bộ phận sau khi thu thập dữ liệu chỉ có thể xem hoặc sử dụng dữ liệu, giờ cần thêm quyền cập nhật. Và cách làm này cũng không thể tránh được việc tiếp tục phát sinh lỗi trong tương lai. Các tổ chức có thể thu thập dữ liệu theo hướng tự động, tiếp đó tối ưu để chính xác và rõ ràng hơn. Sau đó trách nhiệm về dữ liệu chỉ nằm ở người sửa và cập nhật các dữ liệu được xác định là sai.

Các tổ chức quốc tế sử dụng A.I. đang bắt đầu nhận ra vai trò một người có trách nhiệm quản trị nội bộ về vấn đề đạo đức. Khi A.I. quyết định sai, gây ra một khủng hoảng như tai nạn của Uber, hay ảnh hưởng tới các sự kiện lớn của đất nước… người sáng tạo có thể chịu trách nhiệm? Người dùng và công chúng có quyền đòi hỏi, một ban quản trị nội bộ, hoặc thậm chí quản trị độc lập.

Ví dụ, Marc Benioff, người sáng lập và đồng CEO của Salesforce, đề xuất tính chịu trách nhiệm về những đóng góp của công ty cho xã hội. Trang Havard Business Review cho biết công ty này thiết lập ra một uy ban đạo đức cho các sản phẩm A.I. của mình, trong đó ưu tiên tạo ra hai vai trò: Giám đốc bình đẳng (Tony Prophet) và Giám đốc đạo đức và nhân đạo (Paula Goldman). Ủy ban này nhằm giải quyết sự thiên vị của con người (nhóm kỹ sư, nhà phát triển sản phẩm), phản hồi về mặt chính sách cho cách A.I. hoạt động trong thế giới thực. Từ đó, các nhóm dự án và nhà khoa học dữ liệu sẽ đầu tư một lượng lớn thời gian và tài nguyên lựa chọn những phương án thuật toán, giúp xử lý các thành kiến ​​tồn tại trong dữ liệu.

Việt Khôi

https://doanhnhanonline.com.vn/

Nguồn