Trong những năm gần đây Nvidia đã tích cực quảng bá khái niệm AI chủ quyền (Sovereign AI) hay còn gọi là AI tự chủ. Cả CEO Jensen Huang và Nvidia đều thường xuyên nhấn mạnh tầm quan trọng của AI chủ quyền đồng thời giới thiệu các loại chip của hãng có thể hỗ trợ các quốc gia xây dựng mô hình AI này. Tuy nhiên bên cạnh sự hấp dẫn và việc nhiều quốc gia theo đuổi AI chủ quyền thì một số ý kiến cũng lo ngại về những tác động tiêu cực tiềm ẩn của nó.
AI chủ quyền là gì?
Theo Nvidia, AI chủ quyền là khả năng một quốc gia tự phát triển trí tuệ nhân tạo dựa trên hạ tầng, dữ liệu, nguồn nhân lực, mạng lưới kinh doanh và văn hóa riêng. Hãng này cho rằng sáng kiến “Quốc gia AI” của họ đang giúp các nước xây dựng năng lực AI chủ quyền.
Tiến Sĩ Muath Alduhishy, chuyên gia về chuyển đổi số, đã viết trên Diễn Đàn Kinh Tế Thế Giới (WEF) rằng AI chủ quyền giúp các nước giảm phụ thuộc vào công nghệ AI nước ngoài, đồng thời bảo đảm quyền truy cập vào dữ liệu, công nghệ, chuyên môn và cơ sở hạ tầng quan trọng. Điều này giúp bảo vệ quốc gia khỏi gián đoạn chuỗi cung ứng và củng cố chủ quyền quốc gia.
Một bài viết khác trên WEF vào Tháng Mười Một 2024 cũng chỉ ra rằng sức hấp dẫn của AI chủ quyền tăng lên khi AI ngày càng quan trọng và nhiều người cho rằng không nên để một quốc gia nào độc quyền công nghệ này. Hiện tại, nhiều LLM lớn như ChatGPT hay Claude đang sử dụng các trung tâm dữ liệu tại Mỹ cho mục đích lưu trữ và xử lý yêu cầu thông qua đám mây (cloud). Ngoài ra, AI chủ quyền còn có thể giúp các nước bảo tồn bản sắc trong bối cảnh toàn cầu hóa, điều này cũng phần nào giải thích sự trỗi dậy của các phong trào chính trị dân túy. Tuy nhiên, một số ý kiến cũng đặt câu hỏi về những tác động tiêu cực tiềm tàng của AI chủ quyền.
Các AI tạo sinh (generative AI) như ChatGPT, Gemini hay Claude đang ngày càng phổ biến trong đời sống. Theo một bài viết trên WEF, nhiều chính phủ lo ngại về việc người dân tiếp nhận nội dung từ các công cụ được phát triển ở những nơi có văn hóa và tư tưởng chính trị khác biệt. Việc các quốc gia theo đuổi AI chủ quyền xuất phát từ nhiều yếu tố.
Đầu tiên, đây là vấn đề an ninh quốc gia vì sự phụ thuộc vào công nghệ AI nước ngoài trong các lĩnh vực nhạy cảm có thể tạo ra rủi ro. Thứ hai, AI được xem là chìa khóa của nền kinh tế số nên việc làm chủ công nghệ này sẽ giúp các nước tự chủ hơn. Cuối cùng, việc phát triển AI trong nước giúp các quốc gia bảo vệ dữ liệu người dân tốt hơn và xây dựng các hệ thống phù hợp với ngôn ngữ và văn hóa bản địa.
Một thách thức lớn của ngành AI tại Việt Nam hiện nay là thiếu dữ liệu chất lượng cao đặc biệt là dữ liệu tiếng Việt. Hiện nay, phần lớn các bộ dữ liệu được sử dụng trong AI, đặc biệt các loại dữ liệu lập luận (reasoning) cho LLM, vẫn thiên về tiếng Anh gây khó khăn trong việc xây dựng các mô hình AI tối ưu cho ngôn ngữ và văn hóa Việt Nam.
Nhiều quốc gia cũng đang tích cực đầu tư vào các mô hình AI chủ quyền để chạy đua. Trung Quốc mới ra mắt mô hình DeepSeek được công bố là hiệu suất ngang với ChatGPT nhưng tốn ít điện năng hơn. Đài Loan cũng đã phát triển TAIDE để chống lại ảnh hưởng của các chatbot AI tuân thủ giá trị “xã hội chủ nghĩa cốt lõi” của Trung Quốc. Một số mô hình khác như GPT-NL của Hà Lan, SEA-LION của Singapore và GPT-SW3 của Thụy Điển cũng đang được phát triển.
Mặt trái của AI chủ quyền
Tuy nhiên, AI chủ quyền không chỉ mang đến những tiềm năng phát triển vượt bậc mà còn ẩn chứa không ít rủi ro, đặc biệt khi công nghệ này được kiểm soát bởi các chế độ độc tài. Trong bối cảnh mà trí tuệ nhân tạo đang dần trở thành một yếu tố then chốt trong mọi mặt của đời sống, việc một quốc gia có thể tự chủ phát triển và kiểm soát công nghệ AI của mình mang lại nhiều lợi ích, nhưng đồng thời cũng đặt ra những thách thức đáng kể về mặt đạo đức, chính trị và xã hội.
Tại các quốc gia độc tài hoặc có xu hướng chuyên chế, AI chủ quyền có thể trở thành một công cụ đắc lực để tăng cường sự giám sát và kiểm soát người dân. Với khả năng thu thập, phân tích và xử lý dữ liệu quy mô lớn, AI có thể được sử dụng để theo dõi hoạt động trực tuyến, giám sát các cuộc giao tiếp, và thậm chí là theo dõi di chuyển của người dân. Điều này tạo ra một môi trường mà ở đó quyền riêng tư bị xâm phạm nghiêm trọng và mọi hành vi của người dân đều có thể bị kiểm soát.
Không dừng lại ở đó, AI chủ quyền còn có thể được sử dụng để đàn áp những người bất đồng chính kiến. Các thuật toán AI có thể được lập trình để nhận diện và đánh dấu những người có quan điểm trái chiều, từ đó tạo điều kiện cho các hành động đàn áp, bắt bớ và giam cầm. Điều này đặc biệt đáng lo ngại khi mà các chế độ độc tài thường có xu hướng sử dụng công nghệ để duy trì quyền lực và dập tắt mọi sự phản kháng.
Bên cạnh việc giám sát và đàn áp, AI chủ quyền còn có thể được sử dụng để thao túng dư luận và kiểm soát thông tin. Các thuật toán AI có thể được sử dụng để tạo ra các chiến dịch tuyên truyền quy mô lớn, phát tán thông tin sai lệch và định hướng dư luận theo ý muốn của chính phủ. Với khả năng cá nhân hóa nội dung và nhắm mục tiêu đến từng đối tượng cụ thể, các chiến dịch tuyên truyền bằng AI có thể trở nên rất tinh vi và khó phát hiện. Điều này tạo ra một môi trường mà ở đó người dân khó có thể tiếp cận được thông tin khách quan và chính xác, và dễ dàng bị thao túng bởi các thế lực cầm quyền.
Hơn nữa, việc kiểm soát AI còn tạo ra một môi trường mà ở đó sự tự do ngôn luận và sáng tạo bị hạn chế đáng kể. Những ý kiến khác biệt có thể bị kiểm duyệt, các nội dung không phù hợp với đường lối chính trị có thể bị gỡ bỏ, và người dân có thể bị trừng phạt vì dám lên tiếng. Điều này không chỉ kìm hãm sự phát triển của xã hội mà còn tạo ra một không gian ngột ngạt, nơi mà mọi người đều sợ hãi và không dám thể hiện quan điểm của mình.
Theo hãng tin Reuters vào Tháng Tư 2022 cho hay, nhiều công ty Trung Quốc đã phát triển AI để phân loại dữ liệu cá nhân của người dân, phục vụ cho mục đích giám sát của chính phủ. Công nghệ này cho phép chính phủ Trung Quốc theo dõi hoạt động của người dân một cách chi tiết và có hệ thống, từ đó tạo ra một môi trường giám sát toàn diện. Không chỉ dừng lại ở việc giám sát, AI còn đang giúp chính phủ Trung Quốc kiểm duyệt nội dung trên mạng xã hội một cách hiệu quả hơn. Các thuật toán AI có thể được sử dụng để phát hiện và gỡ bỏ những nội dung không phù hợp, từ đó tạo ra một môi trường thông tin kiểm duyệt chặt chẽ.
Một trong những nguy cơ lớn nhất của việc sử dụng AI chủ quyền là tạo ra một môi trường mà ở đó người dân chỉ tiếp xúc với những thông tin và quan điểm giống nhau. Điều này xảy ra khi các thuật toán AI được lập trình để ưu tiên hiển thị những nội dung phù hợp với quan điểm của người dùng và loại bỏ những thông tin trái chiều. Trong một môi trường như vậy, người dân khó có thể tiếp cận được các ý kiến khác biệt, và dễ dàng bị củng cố trong các quan điểm vốn có của mình. Hiện tượng này không chỉ làm hạn chế sự phát triển tư duy mà còn làm suy yếu khả năng phản biện và phân tích thông tin của người dân.
Diễn đàn Kinh tế Thế giới (WEF) cũng đã lên tiếng cảnh báo về nguy cơ các quốc gia sử dụng AI để gắn nhãn “mối đe dọa” cho những hành vi không phù hợp với giá trị của họ. Điều này có thể dẫn đến phân biệt đối xử và đàn áp những người không tuân thủ theo các chuẩn mực xã hội do chính phủ áp đặt. Ví dụ, ở Việt Nam, các nhóm yêu nước cực đoan có thể sử dụng AI để gán cho những người có quan điểm khác biệt là “phản động” hoặc “chống phá nhà nước”, từ đó gây ra sự kỳ thị và phân biệt đối xử.
Ngoài ra, AI chủ quyền còn có thể làm sâu sắc thêm các định kiến xã hội. Ở Việt Nam, nơi mà người Kinh chiếm ưu thế về dân số và văn hóa, việc xây dựng các hệ thống AI dựa trên văn hóa và ngôn ngữ của người Kinh có thể làm gia tăng sự bất bình đẳng và phân biệt đối xử đối với các dân tộc thiểu số. WEF cũng cho rằng việc xác định văn hóa nào sẽ đại diện cho một quốc gia trong mô hình AI chủ quyền là một thách thức lớn, đặc biệt ở những quốc gia có sự phân cực về văn hóa và chính trị. Hội đồng Đại Tây Dương cũng cảnh báo rằng AI chủ quyền có thể tạo điều kiện cho các chính phủ độc tài phá vỡ sự quản trị đa phương đối với công nghệ kỹ thuật số, từ đó tạo ra một không gian mạng bị phân mảnh và kiểm soát.
Một vấn đề quan trọng khác liên quan đến AI chủ quyền là sự minh bạch trong quá trình huấn luyện AI. Các chính phủ chuyên chế thường ưu tiên kiểm soát hơn là cởi mở, do đó việc đảm bảo tính minh bạch trong quá trình đào tạo AI trở nên khó khăn.
Việc thiếu minh bạch có thể dẫn đến sự thiên vị trong các thuật toán AI, từ đó tạo ra các kết quả không công bằng và không khách quan. Để giải quyết vấn đề này, cần phải có các cơ chế giám sát độc lập để bảo đảm quá trình huấn luyện AI được thực hiện một cách công khai, minh bạch và khách quan. Các chính phủ cần phải công khai dữ liệu sử dụng để huấn luyện AI, đồng thời cho phép các chuyên gia độc lập đánh giá và kiểm tra tính chính xác và công bằng của các thuật toán.