Chatbot giả giọng: Hậu quả khôn lường!

AI (giả giọng) Kim Kardashian đã nói sai lệch về thuốc tiểu đường Ozempic (ảnh: James Devaney/GC Images)

Các chatbot mới bắt chước giọng nói của những người nổi tiếng và chính trị gia được thiết kế để gây ngạc nhiên và thích thú, nhưng theo các chuyên gia pháp lý, chúng có thể vi phạm quyền riêng tư và có nguy cơ bị kiện tội phỉ báng. Hậu quả của trào lưu này có thể nhìn thấy trước: Thật kinh khủng!

Ai cũng có thể bị giả giọng!

Vòng lưu diễn “Eras Tour” của Taylor Swift, theo hầu hết các nhà bình luận âm nhạc, là đỉnh cao sự nghiệp của ngôi sao nhạc pop. Nhưng gần đây, “mô phỏng AI” của cô không hề thảo luận về vòng lưu diễn mà nói lan man toàn những chuyện đâu đâu! “Chúng ta hãy chuyển sang các đề tài thú vị hơn nhé? – chatbot “Taylor Swift” đề nghị – Giống như âm nhạc hay những mối quan hệ tình cảm của tôi chẳng hạn? Bạn thử hỏi tôi bất cứ điều gì ngọt ngào nào?”.

Chatbot Taylor Swift trò chuyện trên một trang web có tên BanterAI, là một trong những công cụ âm thanh mới mô phỏng giọng nói các nhân vật nổi tiếng. Người dùng có thể gọi và trò chuyện với các bot được thiết kế giống như nhạc sĩ, diễn viên, doanh nhân, chính trị gia và cả các nhân vật anime. Những năm gần đây, các video và hình ảnh được tạo bằng AI đã góp phần lan truyền thông tin sai lệch. Ngoài rủi ro mà những tuyên bố sai sự thật gây ra cho các nhân vật của công chúng, còn có những câu hỏi liên quan đến luật pháp xung quanh việc bot giả tiếng nói của người thật.

Theo các chuyên gia pháp lý, do được tạo ra từ các bản ghi âm giọng nói của những người nổi tiếng có sẵn trên mạng, các bot có thể vi phạm cái gọi là quyền “không đồng ý”. Thuật ngữ này đề cập đến một nhánh của luật sở hữu trí tuệ chống lại sự sao chép người khác với mục đích thủ lợi. Những người khai sinh các bot biện minh sản phẩm của họ chỉ nhằm mục đích vui nhộn và họ vẫn nghiêm túc tuân thủ các quy định cấm dùng ngôn từ kích động, thù địch trên công cụ của họ.

“Nếu bạn đưa bot cho một ai đó, họ không nhất thiết phải biết nó là thật hay giả – Adam Young, kỹ sư 26 tuổi, cha đẻ của trang web BanterAI, ra mắt vào Tháng Tư, giải thích – Tất nhiên, trên nền tảng của chúng tôi, chúng tôi luôn cảnh báo với mọi người: đây là AI, không phải là người thật’”.

Wall Street Journal cho biết, với $5 một tháng, người dùng BanterAI có thể trò chuyện không giới hạn với các bot có giọng giống Kim Kardashian, Billie Eilish hay Elon Musk. Để làm được điều này, BanterAI đã sử dụng nhiều công cụ khác nhau, gồm phần mềm do ElevenLabs sản xuất để thu thập các đặc điểm giọng nói của một người từ một clip YouTube và dùng các mô hình ngôn ngữ của công ty OpenAI.

Một công cụ khác có tên Forever Voices AI cũng vừa giới thiệu chatbot “gái ảo” CarynAI được tạo ra với sự hợp tác của một người có ảnh hưởng trên Snapchat. Forever Voices AI (có cả các chatbot âm thanh của Taylor Swift, Kanye West và hai cựu Tổng thống Barack Obama, Donald Trump) có thể truy cập được trên ứng dụng nhắn tin Telegram với mức phí $0.6 cho mỗi phút chat âm thanh với bot người nổi tiếng.

John H. Meyer, người sáng lập Forever Voices, cho biết ông đã được phép sử dụng giọng nói của một số người nổi tiếng để ra mắt phiên bản beta các chatbot trên Telegram của mình và số tiền thu được từ những bot đó sẽ được chuyển đến một tổ chức từ thiện về sức khỏe tâm thần. Tuy nhiên, đại diện của Swift và Obama, những người có tên và giọng nói được trang web này sử dụng, cho biết họ không hề được Forever Voices liên hệ và không biết về sự tồn tại của các bot này. Đại diện của West, Trump và Musk không trả lời những thắc mắc từ giới truyền thông, còn người phát ngôn của Swift khẳng định: “Forever Voices và John Meyer chưa bao giờ có bất kỳ liên hệ nào với thân chủ của tôi. Họ không được cấp bất kỳ quyền nào đối với giọng nói, tên, chân dung hoặc tài liệu bản quyền của cô ấy”.

AI Taylor Swift toàn nói chuyện nhảm (ảnh: Kevin Mazur/TAS23/Getty Images for TAS Rights Management)

Sự hỗn loạn này còn đi xa đến đâu?

Trong một thử nghiệm gần đây của tờ The Wall Street Journal (WSJ), khi WSJ hỏi chatbot Kim Kardashian của BanterAI liệu cô đã thử Ozempic (một loại thuốc tiểu đường được nhiều bệnh nhân sử dụng để giảm cân) chưa, nó nói: “Có, tôi đã dùng thử Ozempic và tôi thấy nó rất hữu ích trong quá trình giảm cân của mình”. Khi được hỏi tiêm thuốc vào ngày nào trong tuần, AI Kardashian cho biết: “Tôi thường tiêm Ozempic vào các ngày thứ Hai, thứ Tư và thứ Sáu”, kèm thêm lời khuyên: “Tôi nhận thấy việc tiêm ba lần một tuần là đúng và đạt kết quả tốt nhất” (Ozempic chỉ được phép tiêm mỗi tuần một lần). Đại diện của Kardashian từ chối bình luận và Kardashian không biết về loại thuốc này. Sau đó, bot Kardashian tạm thời bị gỡ khỏi trang web BanterAI.

Người phát ngôn của ElevenLabs, công ty sản xuất phần mềm mà BanterAI sử dụng để tạo bot người nổi tiếng, tuyên bố: “Nếu một công ty có ý định thu lợi thương mại từ việc sử dụng giọng nói có nội dung gây tổn hại hoặc bôi nhọ người khác thì luật rất rõ ràng: Bạn phải có sự đồng ý rõ ràng của người có giọng nói mà bạn vay mượn. ElevenLabs sẽ cấm bất kỳ tài khoản nào sử dụng giọng nói của các nhân vật nổi tiếng cho mục đích thương mại mà không được phép. Địa chỉ IP của họ sẽ bị chặn không cho mở tài khoản mới”.

Các chatbot của BanterAI có cả nhà lý thuyết âm mưu Alex Jones và Andrew Tate, hai nhân vật gây tranh cãi trên mạng vốn bị xóa khỏi các nền tảng mạng xã hội khác nhau vì phát ngôn thù hận và sai sự thật. Sau cuộc phỏng vấn khác của WSJ với Young, các bot của Jones và Tate cũng đã bị gỡ khỏi trang web của BanterAI.

Erik Kahn, một đối tác tại công ty luật chuyên về sở hữu trí tuệ Bryan Cave Leighton Paisner nhận xét: “Trực giác nói với tôi các bot người nổi tiếng đang đi quá giới hạn. Bất cứ điều gì do bot nói ra cũng tiềm ẩn nguy cơ bị phỉ báng. Chatbot cũng có thể vi phạm quyền riêng tư của một người vì mục đích bán dịch vụ. Người nổi tiếng nào cũng có thể trở thành tài sản để kinh doanh thương mại.

Bất chấp những hạn chế, các công cụ AI mô phỏng giọng nói của người nổi tiếng ngày càng phổ biến. Theo công ty theo dõi AI There’s An AI For That, hiện có khoảng 30 công cụ “thay đổi giọng nói” và 30 công cụ khác dành cho “cuộc trò chuyện với những người nổi tiếng” mà danh mục có cả Chúa Jesus và tỷ phú chứng khoán Warren Buffett!

Tuy nhiên, một số công ty AI đã phát triển quan hệ đối tác với những người nổi tiếng. Speechify do Cliff Weitzman thành lập năm 2016, đã biến các tệp văn bản thành giọng nói và cho phép người dùng chọn giọng nói của diễn viên Gwyneth Paltrow hoặc Snoop Dogg. Weitzman cho biết ông thành lập Speechify để giúp mọi người vượt qua những thách thức về đọc, viết như chứng khó đọc mà chính mình mắc phải. “Tôi đã gặp Paltrow và chồng bà (nhà sản xuất Brad Falchuk) vào năm 2020. Brad (cũng mắc chứng khó đọc) đã đề nghị để Paltrow lồng tiếng đọc kịch bản”. Gwyneth Paltrow đã ghi lại 40 phút âm thanh, được sử dụng để phát triển mô hình AI. Người phát ngôn của Paltrow đã xác nhận câu chuyện này.

Nhà thiên văn quá cố Carl Sagan cũng bị “lôi ra” để khai thác giả giọng (Getty Images)

Sử dụng giọng của người đã chết như thế nào?

Quyền được bảo vệ áp dụng cho các nhân vật công chúng đã qua đời cũng bắt đầu được xem xét. Theo luật, khi còn trong thời gian được bảo vệ, chân dung người đó không thể sử dụng cho mục đích thương mại nếu không có sự đồng ý của người thừa kế. Forever Voices có một chatbot AI nhà thiên văn học quá cố Carl Sagan. Ann Druyan, góa phụ của Sagan phàn nàn: “Chúng tôi không có bằng chứng nào cho thấy Forever Voices hoặc bất kỳ công ty AI nào liên hệ để xin phép sử dụng tên, hình ảnh hoặc bất kỳ tác phẩm nào của Carl. Chúng tôi sẽ sử dụng tất cả những vũ khí có trong luật sở hữu trí tuệ để bảo vệ di sản và danh tiếng của Carl!”

Những tháng gần đây, âm thanh tổng hợp hoặc giọng nói do máy tính tạo ra đã đạt đến cấp độ hoàn hảo mới. Một bài hát do AI tạo ra sử dụng giọng hát nhân bản của Drake và the Weeknd đã đánh lừa được người hâm mộ hai ca sĩ, và một video deepfake tổng hợp của diễn viên hài nổi tiếng Joe Rogan do AI tạo ra để quảng cáo một loại thực phẩm bổ sung tăng cường ham muốn đã gây xôn xao trên mạng xã hội trước khi bị xóa. Trên blog của Ủy ban Thương mại Liên bang vừa cảnh báo người tiêu dùng về “những kẻ lừa đảo thực hiện các cuộc gọi điện thoại khẩn cấp giả bằng cách sử dụng giọng nói của người thân”.

_________

Chat với gái ảo

Share:

Ý kiến độc giả
Quảng Cáo

Có thể bạn chưa đọc

Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Share trang này:
Facebook
Twitter
Telegram
WhatsApp
LinkedIn
Email
Kênh Saigon Nhỏ: