Người lạc quan về công nghệ, kẻ lo sợ ngày tận thế khi tranh luận về AI nguy hiểm nhất
Nhịp đập khoa học - Ngày đăng : 20:51, 18/12/2023
Người lạc quan về công nghệ, kẻ lo sợ ngày tận thế khi tranh luận về AI nguy hiểm nhất
Hơn một năm sau khi ChatGPT được giới thiệu, câu chuyện lớn nhất về AI năm 2023 có thể không phải công nghệ mà là những biến cố xảy ra trong phòng họp OpenAI về sự tiến bộ nhanh chóng của nó.
Trước khi Sam Altman bị sa thải và được phục hồi chức vụ Giám đốc điều hành OpenAI sau đó, AI là trung tâm của sự chia rẽ lớn giữa những người muốn nắm bắt được tốc độ đổi mới nhanh chóng của công nghệ này và những ai muốn nó phát triển chậm lại do có nhiều rủi ro đi kèm.
Cuộc tranh luận diễn ra sôi nổi ở Thung lũng Silicon kể từ năm 2021. Thế nhưng, khi AI ngày càng phát triển về sức mạnh và tầm ảnh hưởng, việc hiểu cả hai mặt của sự chia rẽ ngày càng trở nên quan trọng.
Dưới đây là phần sơ lược về các thuật ngữ chính và một số nhân tố nổi bật đang định hình tương lai của AI.
e/acc và sự lạc quan về công nghệ
Thuật ngữ e/acc là viết tắt của effective accelerationism (chủ nghĩa tăng tốc hiệu quả). Nói tóm lại, những người ủng hộ e/acc muốn công nghệ và sự đổi mới phát triển càng nhanh càng tốt.
Về mặt AI, chính AGI (trí tuệ nhân tạo tổng quát) là nền tảng cho cuộc tranh luận ở đây. AGI là một AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.
Một số người cho rằng AGI sẽ có khả năng đi đến tận cùng thế giới, trở nên thông minh đến mức tìm ra cách tiêu diệt loài người. Thế nhưng, những người đam mê e/acc chọn tập trung vào những lợi ích mà AGI có thể mang lại.
Tuyên ngôn AI từ nhà đầu tư mạo hiểm hàng đầu
Một trong những người ủng hộ e/acc nổi bật nhất là nhà đầu tư mạo hiểm Marc Andreessen của hãng Andreessen Horowitz. Marc Andreessen tin tưởng rằng nhiều công nghệ hơn cuối cùng sẽ khiến thế giới trở thành nơi tốt đẹp hơn.
Ông từng viết tuyên ngôn lạc quan về công nghệ, dài hơn 5.000 từ, giải thích cách công nghệ sẽ trao quyền cho nhân loại và giải quyết tất cả vấn đề vật chất của nhân loại. Marc Andreessen thậm chí còn đi xa hơn khi nói rằng “bất kỳ sự giảm tốc nào của AI sẽ phải trả giá bằng mạng sống” và sẽ là một “hình thức giết người” nếu không phát triển AI đủ để ngăn ngừa tử vong.
Một tác phẩm lạc quan về công nghệ khác mà ông viết có tên Why AI Will Save the World (Tại sao AI sẽ cứu thế giới) đã được đăng lại bởi Yann LeCun, Giám đốc Khoa học AI tại Meta Platforms, được biết đến như một trong những “cha đẻ AI” sau khi giành được Giải thưởng Turing danh giá cho những đột phá trong AI.
Không mong đợi siêu trí tuệ AI sẽ xuất hiện trong một thời gian khá dài nữa, Yann LeCun là tiếng nói đối lập rõ ràng với những người nghi ngờ rằng "các thể chế kinh tế, chính trị hiện tại và toàn thể nhân loại sẽ không có khả năng sử dụng AI cho mục đích tốt".
Việc Meta Platforms ủng hộ AI nguồn mở củng cố niềm tin của Yann LeCun rằng công nghệ này sẽ mang lại nhiều lợi ích hơn là tác hại. Trong khi những người khác lại chỉ ra sự nguy hiểm từ mô hình kinh doanh như của Meta Platforms, vốn đang thúc đẩy việc đưa các mô hình generative AI (AI tạo sinh) ra thị trường và vào tay nhiều nhà phát triển.
Sự liên kết và giảm tốc AI
Vào tháng 3, một bức thư ngỏ của tổ chức Encode Justice và Future of Life Institute đã kêu gọi “tất cả phòng thí nghiệm AI ngay lập tức tạm dừng ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4 của OpenAI”. Bức thư đã được ký bởi những nhân vật nổi tiếng trong lĩnh vực công nghệ, gồm cả Elon Musk và đồng sáng lập Apple - Steve Wozniak.
Vào tháng 4, Sam Altman - Giám đốc điều hành OpenAI đã gửi bức thư tại một sự kiện của MIT với nội dung rằng: “Tôi nghĩ việc hành động thận trọng và ngày càng nghiêm ngặt hơn với các vấn đề an toàn là thực sự quan trọng. Tôi không nghĩ lá thư là cách tối ưu để giải quyết vấn đề này”.
Sam Altman bị cuốn vào cuộc chiến nội bộ OpenAI và các giám đốc ban đầu thuộc chi nhánh phi lợi nhuận của công ty tỏ ra lo ngại về tốc độ tiến bộ nhanh chóng cùng sứ mệnh được nêu ra "đảm bảo AGI - hệ thống AI nói chung thông minh hơn con người - mang lại lợi ích cho toàn nhân loại".
Một số ý tưởng trong bức thư ngỏ là chìa khóa cho những người ủng hộ việc giảm tốc độ phát triển AI. Họ muốn quá trình chậm lại vì tương lai của AI đầy rủi ro và không thể đoán trước. Một trong những lo ngại lớn nhất của họ là vấn đề liên quan đến sự liên kết của AI, cho rằng AI cuối cùng sẽ trở nên thông minh đến mức con người không thể kiểm soát được nó.
"Sự thống trị của chúng ta như một loài, do trí tuệ tương đối vượt trội của chúng ta, đã dẫn đến những hậu quả tai hại cho các loài khác, gồm cả sự tuyệt chủng, bởi mục tiêu của chúng ta không phù hợp với mục tiêu của các loài khác. Chúng ta kiểm soát tương lai, còn tinh tinh trong vườn thú. Các hệ thống AI tiên tiến cũng có thể tác động tương tự đến nhân loại", Malo Bourgon, Giám đốc điều hành Machine Intelligence Research Institute, cho biết.
Nghiên cứu sự liên kết của AI nhằm mục đích đào tạo các hệ thống AI phù hợp với mục tiêu, đạo đức và đạo đức của con người, điều này sẽ ngăn chặn mọi rủi ro hiện hữu với nhân loại. Malo Bourgon cho biết: “Rủi ro cốt lõi là tạo ra các thực thể thông minh hơn chúng ta nhiều với các mục tiêu sai lệch mà hành động của chúng không thể đoán trước và không thể kiểm soát được”.
Chính phủ và vấn đề AI hủy diệt
Christine Parthemore, Giám đốc điều hành Hội đồng Rủi ro Chiến lược và là cựu quan chức Lầu Năm Góc, đã cống hiến sự nghiệp của mình để giảm thiểu rủi ro trong các tình huống nguy hiểm. Gần đây, bà nói với CNBC rằng khi chúng ta xem xét “cái chết quy mô lớn” mà AI có thể gây ra nếu được sử dụng để giám sát hoạt động vũ khí hạt nhân thì đây là vấn đề cần được quan tâm ngay lập tức.
Thế nhưng “nhìn thẳng vào vấn đề” sẽ không mang lại kết quả gì, Christine Parthemore nhấn mạnh. Bà nói: “Toàn bộ vấn đề là giải quyết các rủi ro và tìm ra các bộ giải pháp hiệu quả nhất. Không có trường hợp nào AI giống vũ khí hơn là giải pháp. Ví dụ, các mô hình ngôn ngữ lớn sẽ trở thành trợ lý phòng thí nghiệm ảo và tăng tốc y học, đồng thời cũng giúp những kẻ xấu nhận dạng tác nhân gây bệnh dễ lây lan nhất để sử dụng tấn công. Đây là một trong những lý do không thể dừng lại AI. Chậm lại không phải là một phần của giải pháp”.
Đầu năm nay, Bộ Quốc phòng Mỹ cho biết, trong quá trình sử dụng hệ thống AI sẽ luôn có con người tham gia. Đó là một giao thức mà Christine Parthemore nói nên được áp dụng ở mọi nơi.
Các quan chức chính phủ và nhà hoạch định chính sách đã bắt đầu lưu ý đến những rủi ro này. Vào tháng 7, chính quyền Biden thông báo đã đạt được các cam kết tự nguyện với các gã khổng lồ AI như Amazon, Anthropic, Google, Inflection, Meta Platforms, Microsoft và OpenAI để “hướng tới sự phát triển an toàn, bảo mật và minh bạch của công nghệ AI”.
Chỉ vài tuần trước, Tổng thống Biden đã ban hành một lệnh hành pháp nhằm thiết lập thêm các tiêu chuẩn mới về an toàn và bảo mật AI, dù các nhóm liên quan trong toàn xã hội lo ngại về những hạn chế của nó. Tương tự, chính phủ Anh đã giới thiệu Viện An toàn AI vào đầu tháng 11. Đây là tổ chức đầu tiên được chính phủ hậu thuẫn tập trung vào việc điều hướng AI.
Trong cuộc chạy đua toàn cầu để giành ưu thế về AI và có mối liên hệ với sự cạnh tranh địa chính trị, Trung Quốc đang triển khai bộ luật AI của riêng mình.
Lời hứa AI có trách nhiệm và sự hoài nghi
OpenAI đang tập trung vào giải quyết các thách thức kỹ thuật cốt lõi của việc liên kết siêu trí tuệ trong dự án Superalignment. Mục tiêu đầy tham vọng của dự án này là đạt được sự liên kết giữa AI siêu thông minh với các giá trị và mục tiêu của con người trong vòng bốn năm.
Nếu thành công, Superalignment có thể mở ra một kỷ nguyên mới của cộng hưởng con người - AI an toàn và có lợi. Tuy nhiên, nhiều chuyên gia vẫn hoài nghi về tính khả thi của việc đạt được mức độ căn chỉnh cao như vậy trong một khoảng thời gian ngắn như vậy.
Tại hội nghị Amazon Web Services re:Invent 2023 gần đây, Amazon đã công bố các khả năng mới để đổi mới AI cùng với việc triển khai các biện pháp bảo vệ AI có trách nhiệm trong toàn tổ chức.
Diya Wynn, trưởng nhóm AI có trách nhiệm của Amazon Web Services, cho biết: “Tôi thường nói rằng đó là mệnh lệnh kinh doanh, rằng AI có trách nhiệm không nên được coi là một luồng công việc riêng biệt mà cuối cùng được tích hợp vào cách chúng tôi làm việc”.
Theo một nghiên cứu do Amazon Web Services ủy quyền và Morning Consult thực hiện, AI có trách nhiệm là ưu tiên kinh doanh ngày càng tăng của 59% lãnh đạo doanh nghiệp, với khoảng một nửa (47%) có kế hoạch đầu tư nhiều hơn vào AI có trách nhiệm vào năm 2024 so với 2023.
Dù việc tính đến AI có trách nhiệm có thể làm chậm tốc độ đổi mới của AI, các nhóm như của Diya Wynn vẫn tự coi mình đang mở đường hướng tới một tương lai an toàn hơn.
Diya Wynn nói: “Các công ty đang nhìn thấy giá trị và bắt đầu ưu tiên AI có trách nhiệm. Do đó, các hệ thống sẽ an toàn hơn, bảo mật hơn và toàn diện hơn”.
Malo Bourgon không bị thuyết phục và cho rằng những hành động như thông báo gần đây của các chính phủ "còn xa so với những gì cuối cùng sẽ được yêu cầu".
Ông dự đoán rằng các hệ thống AI có khả năng đạt đến mức độ nguy hiểm thảm khốc sớm nhất là năm 2030. Theo Malo Bourgon, các chính phủ cần chuẩn bị dừng vô thời hạn các hệ thống AI cho đến khi những nhà phát triển AI hàng đầu có thể “chứng minh một cách mạnh mẽ sự an toàn của hệ thống của họ”.