Giả giọng nói – ác mộng mới của deepfake

Jay-Z cảm thấy không hài lòng khi AI nhái giọng mình đọc rap “We Didn’t Start the Fire” của Billy Joel hay độc thoại “To be or not to be” như Hamlet.

Vocal Synthesis, tài khoản ẩn danh trên YouTube và thu hút hơn 60.000 người theo dõi, đăng hàng loạt video phô diễn khả năng ứng dụng công nghệ AI để tạo video deepfake giả giọng người nổi tiếng. Không chỉ bắt chước giọng của rapper Jay-Z, hàng loạt nhân vật khác cũng được tài khoản này đem ra “thử nghiệm” như Frank Sinatra, George Carlin, Louis C.K…

Cuối tháng 4, Roc Nation, công ty đại diện của Jay-Z, kiện Vocal Synthesis và yêu cầu gỡ video vì “nội dung sử dụng AI để nhái giọng khách hàng của chúng tôi một cách bất hợp pháp”. Vocal Synthesis, thông qua video bắt chước giọng Barack Obama và Donald Trump, khẳng định họ “không có mục đích xấu” và “thất vọng khi Jay-Z và Roc Nation bắt nạt một YouTuber nhỏ bé theo cách này”.

Jay-Z đọc rap We Didn’t Start the Fire

“Jay-Z phiên bản AI” đọc rap bài We Didn’t Start the Fire.

Hoán đổi khuôn mặt được coi là xu hướng deepfake của 2019, còn nổi lên năm nay là những công nghệ giả giọng người nổi tiếng. Vụ kiện của Jay-Z cũng làm nổ ra tranh cãi mới: Liệu một người có sở hữu giọng nói của họ?

Theo Digital Trends, đây là một trong những câu hỏi phức tạp về mặt pháp lý nhưng rất được quan tâm trong kỷ nguyên của deepfake. Bản thân giọng nói hiện không thể đăng ký bản quyền, nhưng một đoạn ghi âm giọng hát thì có thể.

Luật pháp đang thay đổi chậm hơn những bước tiến mới của công nghệ. Trong khi đó, khi các công cụ AI ngày một trở nên tinh xảo, các cuộc chiến tại tòa liên quan tới việc giả giọng sẽ ngày càng xuất hiện nhiều hơn. 

Trong khi những video nhái giọng mới chỉ mang tính đùa vui hoặc phô diễn công nghệ, Ủy ban Thương mại Liên bang Mỹ (FTC) lo ngại loại deepfake này sẽ sớm trở thành trò lừa phổ biến. Không ít người quen thuộc với giọng nói “không lẫn đi đâu được” của người thân, như vợ chồng, bố mẹ…, nên khi nhận điện thoại với giọng giả như thật, họ sẽ mắc bẫy và cung cấp các thông tin nhạy cảm.

Đầu năm 2019, một nhóm hacker sử dụng công cụ AI nhái giọng CEO của một công ty có trụ sở Đức để gọi điện cho Giám đốc chi nhánh ở Anh, đề nghị người này chuyển gấp 243.000 USD cho nhà cung ứng. Vị giám đốc nhận ra giọng của “sếp” nên không hề nghi ngờ và thực hiện chuyển tiền.

“Con người đã nhái giọng nhau từ lâu, nhưng với sự trợ giúp của AI, chúng ta có thể bắt chước giọng của nhau ở một tầm mới”, Laura DeMartino, Phó chủ tịch bộ phận phân tích công nghệ của FTC, nhận định trên The Verge.

Trong khi đó, theo John Costello, chuyên gia tại Bệnh viện Nhi Boston, deepfake âm thanh cũng có những ứng dụng hữu ích nhất định, như hỗ trợ bệnh nhân mất giọng có thể tiếp tục cất lên tiếng nói của mình. 

Châu An

Nguồn