Một cảnh báo nghiêm trọng được đưa ra bởi các chuyên gia trong lĩnh vực trí thông minh nhân tạo đã thu hút sự quan tâm công chúng. Các chuyên gia đã chia sẻ quan điểm rằng những mô hình trí thông minh nhân tạo đang ngày càng trở nên thông minh và mạnh mẽ hơn, do đó, chúng ta cần đưa ra các biện pháp hạn chế sớm để bảo đảm chúng không thể kiểm soát loài người, gây thiệt hại cho thế giới, hay tệ hơn là khiến loài người bị diệt vong.
Lời tuyên bố được đăng tải trên trang web của Trung tâm An toàn Trí tuệ Nhân tạo, một tổ chức hàng đầu gồm các chuyên gia trong lĩnh vực công nghệ. Tuyên bố này đã nhấn mạnh rằng giảm thiểu nguy cơ tuyệt chủng do trí thông minh nhân tạo là một ưu tiên quốc tế, song song với các rủi ro quy mô lớn khác trong xã hội như dịch bệnh, nạn đói hoặc chiến tranh hạt nhân.
Sam Altman, CEO của OpenAI và được xem là cha đẻ của ChatGPT, đã đáp ứng tích cực với quan điểm trên. Cùng với Geoffrey Hinton và nhiều nhà khoa học khác, họ đã ký kết một thỏa thuận hợp tác để đối phó với khủng hoảng toàn cầu do trí thông minh nhân tạo có thể gây ra.
Geoffrey Hinton, một trong những người dẫn đầu trong lĩnh vực trí thông minh nhân tạo nhờ công trình nghiên cứu về mạng thần kinh nhân tạo, đã mạnh dạn từ chức tại Google để cảnh báo về nguy hiểm của công nghệ này. Geoffrey được biết đến rộng rãi với công lao lớn trong lĩnh vực học sâu (deep learning) và trí tuệ nhân tạo (artificial intelligence). Ông là một trong những người đi tiên phong trong việc phát triển các mô hình mạng nơ-ron nhân tạo đa tầng (multilayer neural networks) và thuật toán lan truyền ngược (backpropagation algorithm) để huấn luyện các mạng này.
Công trình của Geoffrey Hinton trong lĩnh vực học sâu và trí tuệ nhân tạo đã có ảnh hưởng lớn đến cách chúng ta nhìn nhận và sử dụng trí tuệ nhân tạo trong những lĩnh vực như nhận dạng giọng nói, nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên và nhiều lĩnh vực khác. Ông đã đạt được nhiều giải thưởng và vinh danh trong sự nghiệp, bao gồm Giải Turing năm 2018, một trong những giải thưởng uy tín nhất trong lĩnh vực khoa học máy tính.
Những lời cảnh báo trên rõ ràng là có cơ sở và đạt được rất nhiều sự đồng thuận. Hiện tại, đã có hơn 30,000 người, bao gồm các chuyên gia và giám đốc các công ty công nghệ, đã ký một tuyên bố đề nghị tạm dừng việc đào tạo hệ thống GPT-4 trong sáu tháng. GPT-4 là phiên bản mới nhất của ChatGPT và có hiệu suất mạnh mẽ hơn đáng kể. Trong tuyên bố, họ đã nhấn mạnh rằng công nghệ trí thông minh nhân tạo tiên tiến có thể tạo ra một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất. Với tầm quan trọng như vậy, cần phải có kế hoạch và quản lý với sự quan tâm và nguồn lực tương ứng.
Theo Geoffrey Hinton, các chương trình trí thông minh nhân tạo đang được phát triển theo hướng đúng và sẽ vượt trội hơn cả những người tạo ra chúng. Ông nhấn mạnh rằng điều này sẽ xảy ra sớm hơn chúng ta tưởng. Trước đó ông ước tính rằng phải mất tới khoảng 30 đến 50 năm nữa thì điều đáng lo ấy mới có thể trở thành sự thật, nhưng hiện tại ông tin rằng chúng ta đang tiến bộ nhanh hơn rất nhiều, có thể chỉ còn khoảng năm năm nữa thôi.
Các chuyên gia đã liệt kê các vấn đề có thể phát sinh từ trí thông minh nhân tạo, bao gồm việc tạo ra thông tin sai lệch, sử dụng trái mục đích, tấn công mạng, lừa đảo và nguy cơ vũ khí hóa. Họ cảnh báo rằng việc coi trí thông minh nhân tạo chỉ là một công cụ công nghệ đơn thuần và bỏ qua cơ chế quản lý là một sự liều lĩnh không đáng có.
Dan Hendrycks, Giám đốc Trung tâm An toàn Trí tuệ Nhân tạo, nhấn mạnh rằng xã hội cần nỗ lực đồng thời giải quyết tất cả các rủi ro mà trí thông minh nhân tạo mang lại. Ông cho rằng một xã hội có khả năng quản lý đa dạng rủi ro cùng một lúc, không chỉ tập trung vào một rủi ro cụ thể mà bỏ qua những rủi ro khác. Từ quan điểm quản lý rủi ro, việc chỉ tập trung ưu tiên vào những rủi ro được đánh giá là có hại hơn là thiếu thận trọng, và bỏ qua chúng chắc chắn không phải là quyết định khôn ngoan.