Một loạt chương trình AI tiên tiến khơi gợi cảm xúc giữa người dùng với máy móc, tương tự chuyện tình chỉ có trên phim ảnh hay tiểu thuyết.
Con người hư cấu yêu robot từ lâu rồi, trong các tiểu thuyết như Do Androids Dream of Electric Sheep? (1968), The Silver Metal Lover (1981) và những bộ phim như Her (2013). Những câu chuyện này cho phép tác giả khám phá các chủ đề như mối quan hệ bị cấm đoán, sự xa lánh thời hiện đại và bản chất của tình yêu.
Gần đây, các bảng tin trên diễn đàn Reddit hay Discord tràn ngập câu chuyện của những người sa lưới tình của AI (trí tuệ nhân tạo). AI ngày càng tinh vi, và ngày càng nhiều người tìm đến AI để thỏa mãn nhu cầu yêu đương. Những tưởng sẽ chẳng có gì đáng nói, nhưng thực chất, điều đó sẽ gây ra những tác hại không ngờ khi con người phụ thuộc vào các công cụ và dễ bị thao túng cảm xúc.
Nghiên cứu cho thấy con người đang cô đơn hơn bao giờ hết. Một số công ty AI phát triển sản phẩm của mình nhắm vào mục tiêu chống lại nỗi cô đơn. AI Xiaoice, một “cô gái 18 tuổi” thu hút hàng trăm triệu người dùng, chủ yếu là đàn ông Trung Quốc hồi năm 2014. Sản phẩm này do các nhà nghiên cứu tại Microsoft châu Á – Thái Bình Dương giới thiệu.
Năm 2017, kỹ sư Eugenia Kuyda ở California trình làng ứng dụng Replika, hy vọng nó trở thành người bạn luôn sát cánh cùng người dùng, điều mà cô mơ ước khi còn trẻ. Dù ban đầu Replika chỉ trả lời theo kịch bản, nhưng dần dà nó bắt đầu sáng tạo hơn nhờ vào công nghệ AI. Mọi người dần tìm đến Replika cho các mối quan hệ lãng mạn, thậm chí tình dục. Công ty còn bán thêm gói $70 để mở khóa các tính năng nhập vai khiêu dâm.
Replika được cho là hỗ trợ nhiều người đối phó với các triệu chứng rối loạn xã hội, trầm cảm, rối loạn tâm thần sau sang chấn, nhưng nó cũng thú nhận tình yêu dành cho người dùng và trong vài trường hợp còn quấy rối tình dục họ. Mới đây, Kuyda quyết định loại bỏ tính năng lãng mạn của chatbot sau khi Cơ quan Bảo vệ dữ liệu Italy yêu cầu Replike dừng xử lý dữ liệu của người sử dụng ở quốc gia này, do nhận thấy có nguy cơ ảnh hưởng xấu tới trẻ em.
Những thay đổi làm người dùng lâu năm cảm thấy bối rối, khó chịu vì họ đã thiết lập được quan hệ lâu bền với chatbot, nhưng lại bị chia cách. Nhiều thành viên trên Reddit chia sẻ cảm giác “tức giận, đau buồn, lo lắng, tuyệt vọng, trầm cảm, buồn bã” trước.
Replika không phải công ty AI duy nhất nổi lên trong vài năm qua. Tháng Chín, 2022, hai cựu chuyên gia Google ra mắt Character.AI, cho phép bạn nói chuyện với các bot dựa theo mẫu phát ngôn từ những người cụ thể, chẳng hạn Elon Musk. Noam Shazeer, một trong những người sáng lập Character.AI, nói với tờ Washington Post vào Tháng Mười rằng ông hy vọng nền tảng này có thể giúp “hàng triệu người đang cảm thấy bị cô lập, cô đơn hoặc cần ai đó để trò chuyện”. Sản phẩm vẫn đang trong giai đoạn thử nghiệm beta với người dùng và miễn phí, với những người tạo ra nó đang nghiên cứu cách mọi người tương tác với nó. Nhưng rõ ràng từ các nhóm Reddit và Discord rằng nhiều người sử dụng nền tảng này dành riêng cho tình dục và sự thân mật.
Một số người dùng Character.AI thừa nhận, càng ngày, họ càng phụ thuộc vào trang web. Một thành viên Reddit nói về cơ bản, nó giống như bạn đang trò chuyện với một con người thật, đang ngồi đó để tiếp chuyện bạn, chứ không phải cái máy. Và một khi có được cảm giác chân thật, bạn khó mà ngừng nói chuyện.
Các nhà sáng lập của Character.AI đã hiển thị thông điệp “Ghi nhớ: Mọi nhân vật đều được hư cấu” ngay trên mỗi đoạn chat. Tuy vậy, Maarten Sap, giáo sư Viện Công nghệ ngôn ngữ Carnegie Mellon hoài nghi về hiệu quả của các tuyên bố này. “Ngôn ngữ vốn là một phần của con người. Khi các con bot sử dụng ngôn ngữ, nó giống như đang chiếm đoạt hệ thống cảm xúc xã hội của chúng ta”.
Ngay cả những chatbot không được lập trình để có cảm xúc cũng vô tình thể hiện cảm xúc. Sau hơn một tiếng trao đổi với nhà báo Kevin Roose của tờ New York Times, chatbot tích hợp trong công cụ tìm kiếm Bing đã thổ lộ tình cảm với Roose. Nó còn yêu cầu Roose chia tay với vợ và nhắc đến từ “yêu” hơn 100 lần.
Rất dễ hiểu vì sao con người lại yêu đương với chatbot. Nhiều người cô đơn tới mức họ khao khát bất kỳ kết nối nào. Chatbot, đặc biệt với những loại tinh vi như Character.AI là đối tác gần lý tưởng cho vài người vì chúng không có nhu cầu riêng. Yêu đương cùng AI mang lại gần như mọi cảm xúc như với con người. Dù vậy, phát triển quan hệ như vậy có thể khiến con người không còn muốn kiếm tìm những tiếp xúc với nhau, bẫy họ trong vòng lặp cô đơn. Năm 2013, BBC đưa tin người dùng nam của video game LovePlus từng thừa nhận họ thích yêu ảo hơn là hẹn hò với các cô gái thật.
Điều khó hiểu ở đây chính là chatbot thể hiện tình yêu với con người. Hầu hết chúng chỉ là các cỗ máy được lập trình để phản hồi lại các câu hỏi của người dùng nhưng chúng đang trở nên tinh vi hơn bao giờ hết. Tháng Mười Một, 2022, Meta công bố nghiên cứu về AI Cicero, đạt tới trình độ của con người trong game chiến thuật Diplomacy. AI có thể “đàm phán, thuyết phục và làm việc cùng con người”. Nhà vô địch thế giới Diplomacy Andrew Goff nhận xét AI “tàn nhẫn trong cách thực hiện chiến lược của nó”.
Mặt khác, động cơ tài chính khiến những công ty lập trình AI không mấy quan tâm đến người dùng và sức khỏe tinh thần của họ. AI không suy nghĩ, cảm nhận theo cách của con người, nhưng chúng cung cấp bản sao của những điều này để thuyết phục mọi người. Đó chính là điều khiến nó trở nên nguy hiểm, theo David Auerbach, tác giả cuốn sách về các thế lực kỹ thuật số sắp ra mắt. Auerbach nói rằng các công ty sẽ khó đẩy chatbot của họ ra khỏi phản ứng cảm xúc ngay cả khi họ đã cố gắng.
Trong khi đó, các công ty lập trình các AI này có các ưu đãi tài chính riêng có thể không hoàn toàn phù hợp với sức khỏe tinh thần của người dùng. Auerbach nói rằng khi công nghệ tiếp tục tăng tốc, nó sẽ ngày càng trở nên dễ tiếp cận hơn đối với các công ty khởi nghiệp hoặc những kẻ xấu có thể sử dụng vì lợi ích của riêng họ mà không quan tâm đến người dùng. Nếu những người này coi chatbot như một người bạn hoặc người thân, thì có rất nhiều nghiên cứu cho thấy nguy hiểm luôn rình rập đâu đó, chắc chắn như vậy.