Leopold Aschenbrenner tiết lộ những suy nghĩ của mình về cuộc cách mạng AI trong bài luận dài 165 trang.
Vài tháng qua, một số nhân viên đã rời OpenAI với lý do lo ngại về cam kết an toàn AI của công ty. Ngoài việc đưa ra những thông báo ngắn gọn trên mạng xã hội X, đa số không nói nhiều về lý do tại sao lo lắng về cách tiếp cận phát triển của OpenAI hoặc tương lai AI.
Mới đây, Leopold Aschenbrenner, nhà nghiên cứu bị OpenAI sa thải vào tháng 4, đã tiết lộ những suy nghĩ của mình về cuộc cách mạng AI trong bài luận dài 165 trang.
Leopold Aschenbrenner từng làm việc trong nhóm superalignment của OpenAI, được giao nhiệm vụ giảm thiểu rủi ro AI. Aschenbrenner cho biết OpenAI đã sa thải ông vì làm rò rỉ thông tin về sự sẵn sàng của công ty với AI tổng quát (AGI). AGI là một dạng AI có khả năng hiểu, học hỏi và áp dụng kiến thức ở mức độ tương đương hoặc hơn con người.
Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại. Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:
- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.
- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.
- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.
- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.
Về phần mình, Aschenbrenner cho biết thông tin mà mình chia sẻ là “hoàn toàn bình thường” và OpenAI có thể tìm lý do để sa thải ông. Aschenbrenner là một trong số ít nhân viên từ chối ký vào lá thư kêu gọi phục chức cho Sam Altman sau khi hội đồng quản trị cũ của OpenAI sa thải ông một thời gian ngắn vào tháng 11.2023.
Bài luận của Aschenbrenner dường như không có các chi tiết nhạy cảm về OpenAI. Thay vào đó, Aschenbrenner viết dựa trên "thông tin có sẵn công khai, ý tưởng của riêng ông, kiến thức chung về lĩnh vực hoặc tin đồn từ thành phố San Francisco ở Mỹ (nơi OpenAI đặt trụ sở - PV)".
Trang Insider đã tải đường dẫn bài luận dài 165 trang lên mô hình GPT-4 của OpenAI, yêu cầu ChatGPT tóm tắt nội dung và truyền đạt những điểm quan trọng nhất. Insider cũng nhẹ nhàng yêu cầu GPT-4 làm cho bản tóm tắt rõ ràng và ngắn gọn.
ChatGPT cô đọng bài luận thành đoạn dưới đây, nêu quan điểm của Aschenbrenner về sự phát triển AI: "Bài luận của Leopold Aschenbrenner thảo luận về tiềm năng biến đổi của AGI và siêu trí tuệ, đồng thời dự đoán những tiến bộ đáng kể trong công nghệ AI ở tương lai gần. Aschenbrenner, trước đây từng liên kết với OpenAI, phác thảo quá trình phát triển từ các mô hình AI hiện tại như GPT-4 sang AGI có thể diễn ra nhanh hơn nhiều so với dự đoán, dựa trên xu hướng về sức mạnh tính toán và hiệu quả thuật toán”.
ChatGPT sau đó đưa ra bốn điểm chính rút ra từ bài luận của Aschenbrenner:
Tiến bộ nhanh chóng trong AI
“Aschenbrenner lập luận rằng sự phát triển AI đang tăng tốc với tốc độ chưa từng có. Ông dự đoán rằng đến năm 2027, các mô hình AI có thể đạt đến khả năng của các nhà nghiên cứu và kỹ sư AI, có thể dẫn đến sự bùng nổ trí tuệ khi AI vượt qua trí thông minh của con người”.
Ý nghĩa kinh tế và an ninh
"Bài luận nhấn mạnh ý nghĩa to lớn về kinh tế và an ninh của những tiến bộ này. Aschenbrenner chỉ ra rằng hàng nghìn tỉ USD đang được đầu tư vào phát triển cơ sở hạ tầng cần thiết để hỗ trợ các hệ thống AI này, chẳng hạn như bộ xử lý đồ họa (GPU), trung tâm dữ liệu và sản xuất điện. Ông cũng nhấn mạnh nhu cầu cấp thiết là phải bảo mật những công nghệ này để ngăn chặn việc lạm dụng, đặc biệt là bởi các đối thủ của Mỹ như Trung Quốc”.
Những thách thức về kỹ thuật và đạo đức
"Bài luận thảo luận về những thách thức đáng kể trong việc kiểm soát các hệ thống AI thông minh hơn con người, gọi đây là vấn đề superalignment. Việc quản lý vấn đề này sẽ rất quan trọng để ngăn chặn những hậu quả thảm khốc".
Dự đoán và tác động xã hội
“Aschenbrenner cho rằng rất ít người thực sự hiểu được quy mô thay đổi mà AI sắp mang lại. Ông ấy thảo luận về tiềm năng của AI trong việc định hình lại các ngành công nghiệp, tăng cường an ninh quốc gia, đặt ra những thách thức mới về đạo đức và quản trị”.
Như Aschenbrenner đã viết, có lẽ chỉ có vài trăm người, hầu hết trong số họ làm việc trong phòng thí nghiệm AI ở San Francisco (Mỹ), có “nhận thức về tình huống” về ngành. Những người này dường như sẽ có cái nhìn sâu sắc nhất về cách AI sẽ định hình lại tương lai của chúng ta những năm tới. Là một trong số họ, Aschenbrenner tin rằng AI sẽ đảm nhận một vai trò quan trọng trong an ninh quốc gia.
Tiếp theo, trang Insider làm theo lời cách gợi ý ban đầu khi yêu cầu ChatGPT tóm tắt những dự đoán mà Aschenbrenner đưa ra trong bài luận của mình. Dưới đây là cách ChatGPT phân tích điều đó:
- AGI vào năm 2027: "Aschenbrenner tin rằng việc đạt được AGI vào năm 2027 là điều rất có thể xảy ra, nêu bật sự tiến bộ nhanh chóng từ GPT-2 lên GPT-4, chứng kiến các mô hình AI tiến bộ từ cấp mầm non đến khả năng thông minh như học sinh trung học chỉ trong thời gian ngắn. Ông ấy cho rằng sẽ có một bước nhảy vọt tương tự trong vài năm tới dựa trên những cải tiến nhất quán về hiệu quả tính toán và thuật toán".
- Siêu trí tuệ theo sau AGI: "Sau AGI, tác giả dự đoán một cuộc bùng nổ trí tuệ, nơi AI nhanh chóng tiến từ khả năng của con người đến khả năng siêu nhân. Ông kỳ vọng quá trình chuyển đổi này sẽ được thúc đẩy bởi khả năng của AI trong việc tự động hóa, tăng tốc nghiên cứu và phát triển của chính nó".
- Cụm điện toán AI trị giá hàng tỉ USD: "Về mặt kinh tế, Aschenbrenner gợi ý rằng lĩnh vực AI sẽ chứng kiến sự gia tăng đầu tư vào các cụm điện toán trị giá hàng ngàn tỉ USD khi các tập đoàn và chính phủ chuẩn bị cho những tác động từ AGI và siêu trí tuệ".
- Động lực an ninh quốc gia và toàn cầu: "Có những dự đoán về các biện pháp an ninh quốc gia mạnh mẽ được ban hành để quản lý và kiểm soát sự phát triển AI. Sự cạnh tranh, đặc biệt là với chính phủ Trung Quốc, có thể gia tăng, dễ dẫn đến cuộc chiến toàn diện nếu không được quản lý đúng cách".
- Những thách thức về superalignment: "Một trong những dự đoán quan trọng nhất là cuộc đấu tranh với superalignment - thách thức trong việc giữ cho AI siêu thông minh phù hợp với các giá trị và lợi ích của con người. Vấn đề này được dự đoán là một trong những rào cản trọng tâm khi AI đạt đến và vượt qua mức độ thông minh của con người".
- Chuyển đổi kinh tế và xã hội: "Aschenbrenner kỳ vọng AI sẽ có tác động sâu sắc đến xã hội và nền kinh tế, có khả năng dẫn đến tái cơ cấu các ngành công nghiệp và thị trường việc làm do khả năng của AI trong việc thực hiện các nhiệm vụ hiện do con người quản lý".
- Sự tham gia của chính phủ Mỹ vào dự án: "Dự đoán của ông gồm cả việc chính phủ Mỹ tham gia đáng kể vào việc phát triển AI vào khoảng năm 2027 - 2028 thông qua một dự án AGI chuyên dụng, có thể do tầm quan trọng chiến lược của công nghệ AI".
- Huy động các nguồn lực công nghệ: "Ông dự đoán việc huy động các nguồn lực công nghệ và công nghiệp tương tự như những nỗ lực ở thời kỳ chiến tranh. Tập trung vào AI và cơ sở hạ tầng hỗ trợ nó là ưu tiên hàng đầu trong chính sách quốc gia".
Cựu giám đốc phơi bày vấn đề ở OpenAI: Sam Altman chọn các sản phẩm hào nhoáng thay vì an toàn AI
Hôm 15.5, chỉ một ngày kể từ khi mô hình đa phương thức GPT-4o trình làng, Ilya Sutskever (nhà đồng sáng lập và cựu Giám đốc khoa học OpenAI) đã thông báo nghỉ việc sau gần 10 năm làm tại công ty này.
Đến tối 15.5, Jan Leike, cựu lãnh đạo nhóm superalignment của OpenAI cùng Ilya Sutskever, cũng tuyên bố nghỉ việc. Hôm 17.5, Jan Leike đã phơi bày các vấn đề ở OpenAI.
"Những năm qua, văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng", Jan Leike viết trong chuỗi bài dài trên X hôm 17.5.
Trong các bài viết của mình, Jan Leike cho biết gia nhập OpenAI vì nghĩ đây sẽ là nơi tốt nhất để nghiên cứu cách "điều hướng và kiểm soát" AGI. "Tuy nhiên, tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá dài, cho đến khi chúng tôi cuối cùng đi đến ngõ cụt", Jan Leike viết.
Cựu giám đốc OpenAI cho rằng công ty nên tập trung phần lớn sự chú ý vào các vấn đề về "an ninh, giám sát, sẵn sàng, an toàn, khả năng chống đối kháng, định hướng, bảo mật, tác động xã hội và các chủ đề liên quan".
Jan Leike tiết lộ đội ngũ cũ của ông, nghiên cứu cách làm các hệ thống AI phù hợp với những gì tốt nhất cho nhân loại, đã "đi ngược chiều gió" tại OpenAI.
"Chúng tôi đã chậm trễ rất nhiều trong việc nghiêm túc đánh giá về những tác động của AGI. OpenAI phải trở thành một công ty AGI ưu tiên an toàn trước tiên", ông viết.
Jan Leike kết thúc chuỗi bài đăng trên X bằng lưu ý gửi tới các nhân viên OpenAI, khuyến khích họ thay đổi văn hóa an toàn của công ty.
"Tôi đang tin tưởng vào các bạn. Thế giới đang tin tưởng vào các bạn", ông viết.
Sam Altman, Giám đốc điều hành OpenAI, đã trả lời chuỗi bài đăng của Jan Leike trên X.
"Tôi thực sự đánh giá cao những đóng góp của Jan Leike cho nghiên cứu định hướng và văn hóa an toàn của OpenAI, rất buồn khi thấy anh rời đi. Anh nói đúng, chúng tôi còn rất nhiều việc phải làm và cam kết thực hiện điều đó. Tôi sẽ có một bài đăng dài hơn trong vài ngày tới", Sam Altman viết. Giám đốc điều hành OpenAI kết thúc thông điệp bằng một biểu tượng cảm xúc hình trái tim màu cam.