Khi công nghệ cao có thể… giết người

Share:
Share on facebook
Share on twitter
Share on linkedin
Share on telegram
Share on whatsapp
Minh họa: note thanun/Unsplash

Danh họa Tây Ban Nha Pablo Picasso từng nói: “Máy tính là vô dụng. Chúng chỉ có thể đem lại cho bạn… những câu trả lời”. Nhận xét khôi hài của ông có thể đúng cho thế kỷ 20 khi máy tính chỉ làm những nhiệm vụ được lập trình trước mà không có đủ trí thông minh để tự mình giải quyết một số vấn đề cơ bản. Nhưng bước sang thế kỷ 21, máy vi tính đã mạnh hơn nhiều và thông minh đến nỗi đã đặt ra cho chúng ta một số câu hỏi phức tạp mang tính “sống còn” và khó giải đáp. Ai chịu trách nhiệm chính trả lời những câu hỏi này?

Đâu là giới hạn của trí khôn nhân tạo

Tiến bộ công nghệ trong lĩnh vực “trí khôn nhân tạo” (AI), công nghệ sinh học, công nghệ nano, robotics và khoa học thần kinh… đã buộc những người phụ trách làm chính sách, doanh nhân và người tiêu dùng phải hiểu biết nhiều hơn về những ảnh hưởng kinh tế, đạo đức và xã hội của chúng. Trước hết là AI (cái mà doanh nhân thám hiểm không gian Elon Musk tin rằng còn tiềm tàng mối nguy hiểm hơn cả vũ khí hạt nhân!). Ám ảnh về những con robot phản chủ tấn công và hủy diệt những người chế ra nó đã được đưa lên màn bạc trong các bộ phim khoa học giả tưởng từ nhiều năm nay.

Nhưng AI đã và tiếp tục được xem xét một cách nghiêm túc hơn bởi các nhà khoa học nổi tiếng như nhà vật lý lý thuyết (quá cố) Stephen Hawking và các doanh nhân công nghệ tên tuổi như Musk – giám đốc điều hành công ty không gian Tesla Motors and SpaceX. Họ đã nói lên mối quan tâm về các nguy cơ “có thật” do AI gây ra. Câu hỏi được đặt ra là, làm sao có thể bảo đảm AI chỉ được sử dụng vào những việc có ích mà không làm chuyện xấu và có hại cho người đã tạo ta nó? Theo các nhà khoa học thì phải vài chục năm nữa, máy móc nhân tạo mới đạt đến mức “siêu thông minh” để gây nguy hiểm cho cuộc sống loài người.

Cuối năm 2015, Musk, Peter Thiel và các doanh nhân khác tại Silicon Valley đã hứa đóng góp một tỉ USD vào một công ty phi lợi nhuận mới thành lập có tên “OpenAI” mà mục đích của nó là “nghĩ ra mọi biện pháp cần thiết để AI vẫn còn nằm trong vòng kiểm soát của con người dù chúng có thông minh đến đâu”. Nói chung, AI không được phép vượt ra ngoài giới hạn để làm những gì chúng muốn. “Tuy nhiên, thật khó để ấn định giới hạn về liều lượng thông minh để AI không gây tác hại mà chỉ làm lợi cho con người. Tìm được giới hạn này là cơn đau đầu cho các nhà khoa học. Để AI tự do đi ra ngoài giới hạn sẽ có hậu quả khó lường” – các nhà sáng lập OpenAI đã nhận định như thế trên blog của họ.

Mới đây, Musk tặng $10 triệu cho Viện Tương lai Cuộc sống (FLI) trụ sở tại Cambridge, Massachusetts (Mỹ) để có thêm kinh phí nghiên cứu “những vấn đề về xã hội và đạo đức của AI”. “Công nghệ giúp cho cuộc sống thăng hoa với tốc độ chưa từng có, nhưng nó cũng ẩn chứa những mầm mống hủy diệt. Đây là hai thái cực khác nhau của công nghệ. Hủy diệt lấn át thăng hoa sẽ là thảm học cho loài người” – Tuyên bố của viện nêu rõ.

Minh họa: Possessed Photography/Unsplash

Đau đầu với xe tự lái, tự hành

Một câu hỏi khó nữa là làm sao để cấy “tư duy đạo đức” vào những chiếc xe hơi tư hành để chúng có thể chọn cách xử lý có lợi nhất cho con người khi rơi vào tình huống sắp gây tai nạn? Con người lúc ngồi sau tay lái gặp tình thế phải quyết định cấp bách cũng có những chọn lựa như thế, nhưng khi chúng ta chọn lựa không đúng sẽ gây ra hậu quả rất nặng nề. Đối với xe tự lái, sự chọn lựa sẽ dựa vào “danh sách phản ứng” được lập trình sẵn. Tuy nhiên, có những tình huống không được lập trình hoặc không thể lập trình nên chọn lựa đúng sẽ không dễ.

Ví dụ, xe sắp gặp tình huống nguy cấp (do chủ quan hay khách quan) sẽ lao vào vách ngăn, lao vào xe phía trước, hoặc lao vào dòng người đi bộ bên lề? Xe tự lái phải chọn nhanh giải pháp nào gây thiệt hại ít nhất cho con người trước rồi tài sản tính sau. Việc lập trình trước cho xe “bản danh sách phản ứng” cho từng tình huống là không hề đơn giản. Cuối năm 2015, ông Dieter Zetsche, giám đốc điều hành của hãng chế tạo xe hơi Đức Daimler đã đặt vấn đề về việc “xe tự hành sẽ xử lý thế nào nếu sắp xảy ra một tai nạn không thể tránh khỏi?”.

Ông nói: “Cho xe tông đuôi chiếc xe con phía trước, chọn tông vào xe tải, lao xuống mương, tông vào người mẹ giắt con hay vào bà nội 80 tuổi? Chúng ta cần trả lời câu hỏi này”. Hội Daimler and Benz (DBF) đã chi hơn 1,5 triệu euro từ 2012 cho đội ngũ gồm 20 nhà khoa học để họ xem xét những ảnh hưởng xã hội của xe tự lái. Họ đã đưa ra một số “tiến thoái lưỡng nan về đạo đức”. Vấn đề đã được các triết gia đạo đức như giáo sư Michael Sandel tại Đại học Harvard đề cập đến khi ông tham gia tranh luận về đề tài “Giết người được chứng minh”. Nay hội đồng quản trị các công ty sản xuất xe tự hành và cả các chủ xe tự hành tương lai đều bận tâm với vấn đề này.

Lan sang lĩnh vực y tế

Nhưng không chỉ các nhà sản xuất xe tự lái mà cả những người làm việc trong lĩnh vực y tế cũng đang gặp thế tiến thoái lưỡng nan với công nghệ mới mà ở đây là các robot trợ thủ chăm sóc người bệnh và “dược phẩm thông minh”. “Chúng ta có nên cấm người bình thường dùng biệt dược tăng cường nhận thức?” – hai nhà thần kinh học Barbara Sahakian và Jamie Nicole LaBuzetta đã hỏi như thế trong cuốn sách mới Bad Moves của họ. Câu hỏi này là thách thức đạo đức liên quan đến việc dùng dược phẩm thông minh để giúp làm bài tập tốt hơn.

“Trong khi các vận động viên dùng doping cải thiện thành tích đều bị lên án và bị kỷ luật nặng thì sinh viên dùng thuốc thông minh để làm bài thi tốt hơn lại chẳng bị ai ngăn cản!” – một giáo viên nói. Các sinh viên tại Đại học Duke ở North Carolina đang áp lực chính quyền sửa đổi bộ qui tắc đạo đức trong trường để đưa thuốc thông minh vào danh sách dược phẩm cấm dùng khi thi cử. Tuy nhiên, đa số đại học và quan chức chính quyền còn lúng túng. Họ chưa biết phải làm gì với loại hình gian lận mới này. “Những loại thuốc thông minh có thể làm thay đổi sâu sắc xã hội chúng ta theo cách chúng ta không ngờ được. Vì vậy, đã đến lúc phải thảo luận thẳng thắn về dược phẩm thông minh và vai trò của chúng trong xã hội tương lai” – Sahakian và LaBuzetta viết trong sách. Tất cả câu hỏi trên dẫn đến câu hỏi lớn hơn: ai có trách nhiệm trong việc bảo đảm những phát triển công nghệ mới nhất không bị lợi dụng vào các ý đồ và mục đích xấu? Từ lâu, các đại học và bộ phận nghiên cứu của nó có vai trò rất lớn trong việc phổ biến kiến thức và kích thích tranh luận về “mối tương quan giữa công nghệ và đạo đức”.

Nhưng họ thường lệ thuộc vào nguồn kinh phí của các công ty đỡ đầu nên khó lòng đưa ra các giải pháp cấp tiến sau khi nghiên cứu hoàn tất, nếu chúng ảnh hưởng đến hoạt động và doanh thu của công ty cấp tiền. Hệ quả là các công ty sẽ âm thầm tự điều chỉnh “ở mức độ chấp nhận được” dựa vào các phát hiện mới. Vì vậy, một số công ty không liên quan đã vào cuộc như Google khi nó thành lập bộ phận đạo đức để kiểm tra các lĩnh vực như AI sao cho không đi chệch hướng hay vượt quá giới hạn cho phép. Một nhà ngân hàng nói: “Không phải tất cả những gì có trong luật đều phù hợp với đạo đức con người. Đây là vấn đề mà các công ty công nghệ phải đối phó nếu không muốn bị chế tài bởi các qui định pháp luật mới trong tương lai”.

Những câu hỏi còn phía trước

Việc dạy robot có chọn lựa khôn ngoan nhất khi xử lý một tình huống bất ngờ không phải là việc dễ. Các nhà sản xuất xe hơi tự lái luôn “đánh vật” với triết lý “thà giết một người hơn giết nhiều người khi xe gặp thảm họa kỹ thuật”. Người mua xe cũng sẽ quyết định dựa vào khả năng này của xe. Còn nhiều năm nữa xe hơi tự lái đúng nghĩa mới có thể lăn bánh với giấy phép đàng hoàng nhưng không chỉ xe mà nhiều cỗ máy khác cũng đang làm việc như một robot thông minh khi chúng thường xuyên kiểm tra thế giới chung quanh nhờ các lập trình sẵn và tiến hành những nhiệm vụ được lập trình.

Nữ tiến sĩ Wendy Ju, chuyên viên về tương tác máy tính-người tại Đại học Stanford (Mỹ) nhận định: “Đây là những gì đang xảy ra. Ngoài thiết kế tốt hơn, robot cũng cần được loại bỏ hoàn toàn nguy cơ… nổi điên bất ngờ và làm những chuyện tai hại không lường trước được. Chúng có thể tấn công người chúng chăm sóc!”. “Thách thức cơ bản nhất là robot phải thực hiện chính xác và đầy đủ nhiệm vụ được giao. Ví dụ robot chăm sóc người già phải làm sao để chất lượng sống của bà ta tốt hơn chứ không phải tệ hơn hoặc “sống trong sợ hãi”. Đó là chưa kể những thao tác lệch lạc của robot khi phần mềm bị lỗi” – giáo sư Martial Hebert, phụ trách robotics tại Đại học Carnegie Mellon nhận định.

Xe tự lái đưa ra quyết định đúng trong những tình huống nguy hiểm là điều rất quan trọng. Nhưng quyết định nào thì cũng phải “nhân bản” và vì con người. Các công ty Google, Toyota và một số công ty khác tin rằng xe tự hành sẽ cứu được nhiều mạng sống do lỗi của lái xe, nhưng nếu xe tự hành gây ra thương vong, dù là nhỏ thì nó có được chấp nhận? Và ai sẽ bị đổ lỗi! “Cuộc tranh luận sẽ vẫn còn tiếp diễn cho đến khi nào đạt được giải pháp thỏa đáng cho vấn đề nan giải này” – giáo sư Sharkey nói.

Share:

Share on facebook
Share on twitter
Share on linkedin
Share on telegram
Share on whatsapp
Quảng Cáo

Có thể bạn chưa đọc

Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Quảng Cáo
Share trang này:
Share on facebook
Facebook
Share on twitter
Twitter
Share on telegram
Telegram
Share on whatsapp
WhatsApp
Share on linkedin
LinkedIn
Share on email
Email
Kênh Saigon Nhỏ: