California muốn quản lý AI, nhưng vẫn còn… lơ mơ

(Hình minh họa: Steve Johnson/Unsplash)

Làm sao bạn có thể quản lý một thứ gì đó nếu bạn thậm chí còn không thể định nghĩa được nó?

Ngay cả khi SB 1047 nằm trên bàn làm việc của Thống Đốc Gavin Newsom chờ ký thành luật, thì nó vẫn không nói lên được bản chất của trí tuệ nhân tạo (Artificial Intelligence – AI). Không luật nào có hiệu quả nếu văn bản của nó chỉ giải quyết một ý tưởng mơ hồ.

Có rất nhiều tranh cãi xung quanh dự luật này, nhưng chủ yếu là vì những lý do khác. Người đứng đầu ngành Andrew Ng lập luận rằng dự luật này “mắc sai lầm cơ bản là quản lý một công nghệ có mục đích chung thay vì các ứng dụng của công nghệ đó.”

Cựu giám đốc bảo mật của Facebook Chris Kelly chỉ ra rằng nó “quá rộng và hẹp theo nhiều cách khác nhau.” Ben Brooks của Stability AI viết rằng dự luật bao gồm các điều khoản “gây ra mối đe dọa nghiêm trọng đối với đổi mới sáng tạo mở.”

Tuy nhiên, có một vấn đề thậm chí còn cơ bản hơn: Dự luật không định nghĩa những gì nó quản lý. Định nghĩa về AI của dự luật này rất mơ hồ, có thể áp dụng cho hầu hết mọi chương trình trên máy tính.

Dự luật định nghĩa trí tuệ nhân tạo như sau: “Một hệ thống được thiết kế hoặc dựa trên máy móc có mức độ tự chủ khác nhau và có khả năng, vì mục tiêu rõ ràng hoặc ngầm định, suy ra từ dữ liệu đầu vào mà nó nhận được cách tạo ra các đầu ra có ảnh hưởng đến môi trường vật lý hoặc ảo.”

Hãy phân tích lý do tại sao định nghĩa đó lại vô nghĩa: “Mức độ tự chủ khác nhau.” Điều này đúng với bất kỳ hệ thống hoặc máy móc nào. Mức độ tự chủ được xác định bởi cách sử dụng, mức độ con người để nó tự vận hành.

Có khả năng “suy ra từ dữ liệu đầu vào mà nó nhận được cách tạo ra các đầu ra.” Đó là những gì mọi chương trình máy tính thực hiện: Nó tiếp nhận dữ liệu đầu vào và tạo ra các đầu ra.

Các đầu ra của nó “ảnh hưởng đến môi trường vật lý hoặc ảo.” Ảnh hưởng đầu ra của chương trình máy tính được xác định bởi cách sử dụng. Ví dụ như các đầu ra có điều khiển bộ điều nhiệt không? Điều đó tùy thuộc vào con người.

Dự luật có nêu cụ thể hơn một chút, nhưng không có ích gì. Nó thu hẹp phạm vi điều chỉnh đối với “các mô hình AI” đáp ứng một số tiêu chí nhất định, nhưng kết quả vẫn chưa rõ ràng. Nếu không làm rõ, từ “mô hình” là một từ bao hàm, ám chỉ hầu hết mọi hình thức hoặc chương trình. Hơn nữa, các tiêu chí mà nó thiết lập không liên quan đến bất kỳ phẩm chất cụ thể nào của AI, mà thay vào đó lại quy về một số lượng đơn giản: số lượng phép tính được thực hiện khi phát triển mô hình.

Do đó, dự luật có thể liên quan đến nhiều chương trình không liên quan đến trí tuệ nhân tạo, chẳng hạn như chương trình phá vỡ mã hóa bằng nhiều phép tính. Nó thậm chí có thể liên quan đến bất kỳ chương trình nào vô tình thực hiện một số lượng lớn phép tính do lỗi lập trình.

Ủy Ban Châu Âu (The European Commission) cũng từng gặp phải vấn đề tương tự khi công bố các biện pháp lập pháp định nghĩa AI rất rộng: là sự kết hợp giữa dữ liệu và thuật toán. Các thành viên của Liên Minh Hà Lan về trí tuệ nhân tạo đã phản bác, “định nghĩa này áp dụng cho bất kỳ software nào từng được viết, không chỉ AI.”

Vấn đề cơ bản là “AI” là một từ thông dụng vô định hình, thách thức định nghĩa và về bản chất là hứa hẹn quá mức. Nếu có sự thoải mái lan tỏa khi “trí tuệ nhân tạo” được định nghĩa một cách chủ quan, thì nó không nên mở rộng sang các hoạt động lập pháp. Diễn ngôn công khai thường truyền tải rằng, AI rất khó định nghĩa, nhưng bạn sẽ hiểu khi bạn nhìn thấy nó. Vị trí đó gây nhầm lẫn giữa quy định và luật pháp về học máy và các công nghệ khác.

Vì vậy, đừng nên cố gắng quản lý “trí tuệ nhân tạo.” Việc quản lý đã đủ khó khăn, không cần phải làm rối tung vấn đề lên.

(theo Forbes)

Share:

Ý kiến độc giả
Quảng Cáo

Có thể bạn chưa đọc

Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Share trang này:
Facebook
Twitter
Telegram
WhatsApp
LinkedIn
Email
Kênh Saigon Nhỏ: