OpenAI vừa bổ nhiệm cựu giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA) vào hội đồng quản trị và đã giải tán nhóm làm việc nhằm thúc đẩy việc sử dụng trí tuệ nhân tạo (AI) một cách an toàn.
Càng ngày OpenAI càng kém cởi mở hơn một chút.
Trong động thái gây ngạc nhiên mới đây, OpenAI cho biết đã bổ nhiệm Paul Nakasone (cựu Giám đốc NSA) vào hội đồng quản trị của mình. Không chỉ là cựu Giám đốc NSA, Paul Nakasone từng đứng đầu Bộ Tư lệnh Mạng Mỹ (bộ phận an ninh mạng của Bộ Quốc phòng Mỹ).
OpenAI cho biết việc bổ nhiệm Paul Nakasone thể hiện “cam kết về an toàn và bảo mật” của họ, đồng thời nhấn mạnh tầm quan trọng của an ninh mạng khi AI tiếp tục phát triển.
Paul Nakasone nói trong một tuyên bố: “Cam kết từ OpenAI với sứ mệnh của mình phù hợp chặt chẽ với các giá trị và kinh nghiệm của tôi trong dịch vụ công. Tôi mong muốn được đóng góp vào những nỗ lực của OpenAI nhằm đảm bảo AI tổng quát (AGI) an toàn và mang lại lợi ích cho mọi người trên khắp thế giới”. AGI là một dạng AI có khả năng hiểu, học hỏi và áp dụng kiến thức ở mức độ tương đương hoặc hơn con người.
Thế nhưng, các nhà phê bình lo ngại việc tuyển dụng Paul Nakasone có thể đại diện cho một điều khác, đó là sự giám sát.
Trong một bài đăng trên mạng xã hội X, Edward Snowden viết rằng: “Việc OpenAI bổ nhiệm Paul Nakasone vào hội đồng quản trị là sự phản bội có tính toán với quyền của mọi người trên Trái đất. Họ đã hoàn toàn lộ mặt: Đừng bao giờ tin tưởng OpenAI hoặc các sản phẩm của nó, gồm cả ChatGPT”.
Edward Snowden được biết đến là nhân vật tố giác người Mỹ và hiện mang quốc tịch Nga. Ông từng là nhân viên tình báo và nhà thầu phụ cho NSA trước khi tiết lộ các tài liệu tối mật của NSA vào năm 2013. Những tài liệu bị rò rỉ tiết lộ các chương trình do thám trên diện rộng của NSA, gây ra tranh cãi lớn trên toàn thế giới về quyền riêng tư và an ninh quốc gia. Snowden đang sống lưu vong ở Nga và bị truy tố tội gián điệp bởi chính phủ Mỹ.
Trong một bình luận khác về X, Edward Snowden cho biết "sự kết hợp của AI với đại dương dữ liệu giám sát hàng loạt được tích lũy trong hai thập kỷ qua sẽ đặt những quyền lực thực sự khủng khiếp vào tay một số ít người không chịu trách nhiệm trước công chúng".
Trong khi đó, Thượng nghị sĩ Mark Warner, đảng viên đảng Dân chủ đến từ bang Virginia và là người đứng đầu Ủy ban Tình báo tại Thượng viện Mỹ, lại mô tả việc OpenAI tuyển dụng Paul Nakasone là “thành tựu lớn”.
“Nói chung, không có ai trong cộng đồng an ninh được tôn trọng hơn Paul Nakasone”, Mark Warner chia sẻ với trang Axios.
Chuyên môn về an ninh của Paul Nakasone có thể cần thiết tại OpenAI, nơi các nhà phê bình lo ngại rằng các vấn đề bảo mật có thể dẫn đến các cuộc tấn công mạng.
OpenAI đã sa thải nhà nghiên cứu Leopold Aschenbrenner vào tháng 4 sau khi anh gửi một bản ghi nhớ nêu chi tiết về một “sự cố bảo mật lớn”. Leopold Aschenbrenner mô tả an ninh của công ty là không đủ mạnh để bảo vệ khỏi hành vi trộm cắp của các tác nhân nước ngoài.
Ngay sau đó, nhóm superalignment của OpenAI, từng tập trung phát triển hệ thống AI phù hợp với lợi ích của con người, đột ngột tan rã sau khi hai nhà nghiên cứu an toàn nổi tiếng nhất công ty nghỉ việc.
Jan Leike, nhà nghiên cứu từng đứng đầu nhóm superalignment, hôm 17.5 đã phơi bày các vấn đề ở OpenAI.
"Những năm qua, văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng", Jan Leike viết trong chuỗi bài dài trên X.
Trong các bài viết của mình, Jan Leike cho biết gia nhập OpenAI vì nghĩ đây sẽ là nơi tốt nhất để nghiên cứu cách "điều hướng và kiểm soát" AGI. "Tuy nhiên, tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian khá dài, cho đến khi chúng tôi cuối cùng đi đến ngõ cụt", Jan Leike viết.
Cựu giám đốc OpenAI cho rằng công ty nên tập trung phần lớn sự chú ý vào các vấn đề về "an ninh, giám sát, sẵn sàng, an toàn, khả năng chống đối kháng, định hướng, bảo mật, tác động xã hội và các chủ đề liên quan".
Jan Leike tiết lộ đội ngũ cũ của ông, nghiên cứu cách làm các hệ thống AI phù hợp với những gì tốt nhất cho nhân loại, đã "đi ngược chiều gió" tại OpenAI.
"Chúng tôi đã chậm trễ rất nhiều trong việc nghiêm túc đánh giá về những tác động của AGI. OpenAI phải trở thành một công ty AGI ưu tiên an toàn trước tiên", ông viết.
Jan Leike kết thúc chuỗi bài đăng trên X bằng lưu ý gửi tới các nhân viên OpenAI, khuyến khích họ thay đổi văn hóa an toàn của công ty.
"Tôi đang tin tưởng vào các bạn. Thế giới đang tin tưởng vào các bạn", ông viết.
Sam Altman, Giám đốc điều hành OpenAI, đã trả lời chuỗi bài đăng của Jan Leike trên X: "Tôi thực sự đánh giá cao những đóng góp của Jan Leike cho nghiên cứu định hướng và văn hóa an toàn của OpenAI, rất buồn khi thấy anh rời đi. Anh nói đúng, chúng tôi còn rất nhiều việc phải làm và cam kết thực hiện điều đó. Tôi sẽ có một bài đăng dài hơn trong vài ngày tới".
Ilya Sutskever, cựu Giám đốc khoa học OpenAI từng thành lập nhóm superalignment, tỏ ra kín đáo hơn về lý do rời đi của mình. Tuy nhiên, những người trong nội bộ công ty cho biết Ilya Sutskever đã ở trong tình trạng bấp bênh vì đóng vai trò trong vụ phế truất Sam Altman khỏi vị trí Giám đốc điều hành nhưng bất thành. Ilya Sutskever không tán thành cách tiếp cận tích cực của Sam Altman trong việc phát triển AI, điều này thúc đẩy cuộc tranh giành quyền lực giữa họ.
Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại. Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:
- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.
- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.
- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.
- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.
Nếu tất cả những điều đó vẫn chưa đủ, ngay cả những người dân địa phương sống và làm việc gần trụ sở OpenAI ở thành phố San Francisco (Mỹ) cũng nói rằng công ty đang bắt đầu làm họ sợ hãi. Một nhân viên thu ngân tại cửa hàng thú cưng lân cận nói với trang The San Francisco Standard rằng văn phòng OpenAI có một "bầu không khí bí mật".
Theo một số nhân viên tại các doanh nghiệp lân cận, những người đàn ông giống nhân viên an ninh bí mật đứng bên ngoài văn phòng nhưng nói rằng họ không làm việc cho OpenAI.
“OpenAI không phải là người hàng xóm tồi, nhưng họ trông rất bí mật", một người nói.
Mới đây, Leopold Aschenbrenner cho biết OpenAI đã sa thải ông vì làm rò rỉ thông tin về sự sẵn sàng của công ty với AGI.
Về phần mình, Aschenbrenner cho rằng thông tin mà mình chia sẻ là “hoàn toàn bình thường” và OpenAI có thể tìm lý do để sa thải ông. Aschenbrenner là một trong số ít nhân viên từ chối ký vào lá thư kêu gọi phục chức cho Sam Altman sau khi hội đồng quản trị cũ của OpenAI sa thải ông một thời gian ngắn vào tháng 11.2023.
Aschenbrenner tiết lộ những suy nghĩ của mình về cuộc cách mạng AI trong bài luận dài 165 trang. Bài luận của Aschenbrenner dường như không có các chi tiết nhạy cảm về OpenAI. Thay vào đó, Aschenbrenner viết dựa trên "thông tin có sẵn công khai, ý tưởng của riêng ông, kiến thức chung về lĩnh vực hoặc tin đồn từ thành phố San Francisco ở Mỹ (nơi OpenAI đặt trụ sở - PV)".
Trang Insider đã tải đường dẫn bài luận dài 165 trang lên mô hình GPT-4 của OpenAI, yêu cầu ChatGPT tóm tắt nội dung và truyền đạt những điểm quan trọng nhất. Insider cũng nhẹ nhàng yêu cầu GPT-4 làm cho bản tóm tắt rõ ràng và ngắn gọn.
ChatGPT cô đọng bài luận thành đoạn dưới đây, nêu quan điểm của Aschenbrenner về sự phát triển AI: "Bài luận của Leopold Aschenbrenner thảo luận về tiềm năng biến đổi của AGI và siêu trí tuệ, đồng thời dự đoán những tiến bộ đáng kể trong công nghệ AI ở tương lai gần. Aschenbrenner, trước đây từng liên kết với OpenAI, phác thảo quá trình phát triển từ các mô hình AI hiện tại như GPT-4 sang AGI có thể diễn ra nhanh hơn nhiều so với dự đoán, dựa trên xu hướng về sức mạnh tính toán và hiệu quả thuật toán”.
ChatGPT sau đó đưa ra bốn điểm chính rút ra từ bài luận của Aschenbrenner:
Tiến bộ nhanh chóng trong AI
“Aschenbrenner lập luận rằng sự phát triển AI đang tăng tốc với tốc độ chưa từng có. Ông dự đoán rằng đến năm 2027, các mô hình AI có thể đạt đến khả năng của các nhà nghiên cứu và kỹ sư AI, có thể dẫn đến sự bùng nổ trí tuệ khi AI vượt qua trí thông minh của con người”.
Ý nghĩa kinh tế và an ninh
"Bài luận nhấn mạnh ý nghĩa to lớn về kinh tế và an ninh của những tiến bộ này. Aschenbrenner chỉ ra rằng hàng nghìn tỉ USD đang được đầu tư vào phát triển cơ sở hạ tầng cần thiết để hỗ trợ các hệ thống AI này, chẳng hạn như bộ xử lý đồ họa (GPU), trung tâm dữ liệu và sản xuất điện. Ông cũng nhấn mạnh nhu cầu cấp thiết là phải bảo mật những công nghệ này để ngăn chặn việc lạm dụng, đặc biệt là bởi các đối thủ của Mỹ như Trung Quốc”.
Những thách thức về kỹ thuật và đạo đức
"Bài luận thảo luận về những thách thức đáng kể trong việc kiểm soát các hệ thống AI thông minh hơn con người, gọi đây là vấn đề superalignment. Việc quản lý vấn đề này sẽ rất quan trọng để ngăn chặn những hậu quả thảm khốc".
Dự đoán và tác động xã hội
“Aschenbrenner cho rằng rất ít người thực sự hiểu được quy mô thay đổi mà AI sắp mang lại. Ông ấy thảo luận về tiềm năng của AI trong việc định hình lại các ngành công nghiệp, tăng cường an ninh quốc gia, đặt ra những thách thức mới về đạo đức và quản trị”.
Như Aschenbrenner đã viết, có lẽ chỉ có vài trăm người, hầu hết trong số họ làm việc trong phòng thí nghiệm AI ở San Francisco (Mỹ), có “nhận thức về tình huống” về ngành. Những người này dường như sẽ có cái nhìn sâu sắc nhất về cách AI sẽ định hình lại tương lai của chúng ta những năm tới. Là một trong số họ, Aschenbrenner tin rằng AI sẽ đảm nhận một vai trò quan trọng trong an ninh quốc gia.