CEO OpenAI kêu gọi Trung Quốc giúp định hình các nguyên tắc an toàn cho AI
Nhịp đập khoa học - Ngày đăng : 11:00, 12/06/2023
“Với sự xuất hiện của các hệ thống AI ngày càng mạnh mẽ, tầm quan trọng của sự hợp tác toàn cầu chưa bao giờ cần thiết hơn thế”, Sam Altman phát biểu tại một hội nghị ở Bắc Kinh hôm 11.6 qua liên kết video.
Ở cả Trung Quốc và Thung lũng Silicon (Mỹ), nhân tài và các khoản đầu tư đang dồn vào AI, một lĩnh vực chiến lược sẽ giúp định hình sự cạnh tranh công nghệ ngày càng tăng giữa hai nền kinh tế lớn nhất thế giới.
Những tiến bộ trong công nghệ mới cũng làm dấy lên sự căng thẳng trong cách các chính phủ đang tìm cách điều chỉnh lĩnh vực AI. Đây là vấn đề mà Chủ tịch Trung Quốc Tập Cận Bình nói rằng cần có sự giám sát chặt chẽ hơn của chính quyền để giảm thiểu rủi ro an ninh quốc gia.
“Trung Quốc có một số tài năng AI giỏi nhất thế giới. Về cơ bản, để giải quyết các khó khăn liên quan đến căn chỉnh các hệ thống AI tiên tiến, cần có sự tham gia của những người thông minh, tài năng hàng đầu từ khắp nơi trên thế giới”, Sam Altman nói với những người tham gia sự kiện do Học viện Trí tuệ Nhân tạo Bắc Kinh tổ chức.
Bài phát biểu của Sam Altman tại hội nghị này rất đáng chú ý vì Học viện Trí tuệ Nhân tạo Bắc Kinh giữ vị thế hàng đầu trong lĩnh vực AI ở Trung Quốc. Với sự hỗ trợ của Bộ Khoa học và Công nghệ Trung Quốc và chính quyền địa phương ở Bắc Kinh, tổ chức phi lợi nhuận này được Brad Smith (Chủ tịch Microsoft) chọn là một trong cái tên đi đầu trong đổi mới AI.
ChatGPT của OpenAI hiện không khả dụng ở Trung Quốc, nơi các quy định về dữ liệu và kiểm duyệt từ lâu đã chặn các dịch vụ từ những gã khổng lồ công nghệ phương Tây như Google của Alphabet và Facebook của Meta Platforms.
Các chuyên gia nói rằng các quy định phức tạp về dữ liệu và thuật toán sẽ gây khó khăn cho các công ty phương Tây muốn xâm nhập lĩnh vực AI ở Trung Quốc.
Cơ quan quản lý công nghệ Trung Quốc báo hiệu trong các hướng dẫn dự thảo quy định rằng, trách nhiệm về thuật toán và nội dung ở nước này có thể phần lớn thuộc về các nhà khai thác nền tảng. Quốc vụ viện Trung Quốc cho biết đang lên kế hoạch thảo luận về luật liên quan đến AI vào cuối năm nay.
Hôm 10.6, Sam Altman nói rằng OpenAI dự định mở mã nguồn nhiều hơn cho các mô hình của mình trong tương lai, như một phần trong nỗ lực thúc đẩy sự an toàn của AI, mà không nêu khung thời gian hoặc mô hình cụ thể.
Bài phát biểu tại Bắc Kinh của doanh nhân công nghệ 38 tuổi người Mỹ là một phần trong chuyến đi vòng quanh thế giới của ông nhằm thúc đẩy việc quản lý AI.
Khi ở London (thủ đô Anh) vào cuối tháng 5, Sam Altman xảy ra mâu thuẫn với các nhà quản lý Liên minh châu Âu (EU) sau khi nói rằng OpenAI có thể rút khỏi khu vực này nếu luật AI sắp được ban hành sẽ buộc các công ty phải chịu trách nhiệm về cách sử dụng hệ thống của họ.
EU đang làm việc để tạo ra bộ quy tắc đầu tiên trên toàn cầu nhằm quản lý AI. Theo dự thảo, các công ty triển khai công cụ generative AI, chẳng hạn ChatGPT của OpenAI, sẽ phải tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để phát triển hệ thống của họ.
Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu hoặc học máy trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Theo Sam Altman, trước khi xem xét rút lui khỏi EU, OpenAI sẽ cố gắng tuân thủ quy định ở châu Âu khi nó được ban hành,
"Dự thảo Đạo luật AI của EU hiện tại đề xuất quy định quá khắt khe, nhưng chúng tôi nghe nói rằng nó sẽ bị rút lại. Họ vẫn đang thảo luận về vấn đề này", ông nói với Reuters.
Thế nhưng, các nhà làm luật EU chịu trách nhiệm hình thành Đạo luật AI bác bỏ tuyên bố của Sam Altman.
“Tôi không thấy bất kỳ sự giảm nhẹ nào diễn ra trong thời gian sắp tới. Tuy nhiên, chúng tôi rất vui được mời Altman đến Nghị viện châu Âu để ông ấy có thể bày tỏ mối quan tâm của mình và lắng nghe suy nghĩ từ các nhà làm luật châu Âu về những vấn đề này”, Dragos Tudorache, thành viên người Romania của Nghị viện châu Âu, người đang dẫn đầu việc soạn thảo các đề xuất của EU, nói với Reuters.
Thierry Breton, người đứng đầu ngành công nghiệp EU, cũng chỉ trích lời đe dọa rút OpenAI khỏi EU của Sam Altman, tuyên bố các quy tắc dự thảo không phải để thương lượng.
Cũng làm việc trong dự thảo luật của EU, Nghị sĩ Kim van Sparrentak (Hà Lan) cho biết bà và các đồng nghiệp của mình “không nên để bị các công ty Mỹ đe dọa”.
Bà nói: “Nếu OpenAI không thể tuân thủ các yêu cầu cơ bản về quản trị dữ liệu, minh bạch, an toàn và bảo mật thì hệ thống của họ không phù hợp với thị trường châu Âu”.
Các nghị sĩ EU đã đạt được điểm chung về dự thảo đạo luật AI vào đầu tháng 5. Bây giờ, các đại diện Nghị viện, Hội đồng và Ủy ban châu Âu sẽ tranh luận để thống nhất các chi tiết cuối cùng của dự luật.
“Rất nhiều điều họ có thể làm, như thay đổi định nghĩa về các hệ thống AI có mục đích chung để phù hợp với các quy định mới. Rất nhiều thứ có thể được thực hiện", Sam Altman nói.
Hệ thống AI có mục đích chung là một danh mục được các nhà làm luật đề xuất để giải thích cho các công cụ AI có nhiều ứng dụng, chẳng hạn các mô hình generative AI như ChatGPT.
Tại cuộc trò chuyện trong chuyến đi gần đây ở Ấn Độ, Sam Altman cho biết vô cùng lo lắng về ý tưởng rằng ông có thể làm "điều gì đó thực sự tồi tệ" khi tạo ChatGPT (trình làng vào tháng 11.2022) và khiến sự quan tâm về AI tăng cao.
Vào tháng 2, ChatGPT đã lập kỷ lục về cơ sở người dùng tăng trưởng nhanh nhất so với bất kỳ ứng dụng dành cho người tiêu dùng nào trong lịch sử. Cụ thể là ChatGPT đạt mốc 100 triệu người dùng chỉ sau 2 tháng trình làng.
Sam Altman nói với Satyan Gajwani, Phó chủ tịch hãng công nghệ Times Internet, tại sự kiện do tờ báo Economic Times tổ chức hôm 7.6: “Điều khiến tôi mất ngủ nhiều nhất là ý tưởng giả định rằng chúng tôi làm điều gì đó thực sự tồi tệ khi tung ra ChatGPT. Chẳng hạn có thể phát sinh điều gì đó khó khăn và phức tạp trong ChatGPT mà chúng tôi không hiểu”.
Khi được hỏi liệu AI có nên được điều chỉnh giống năng lượng nguyên tử hay không, Sam Altman cho biết phải có một hệ thống tốt hơn để kiểm tra quá trình này. Ông nói: “Cần có sẵn một hệ thống để chúng ta có thể kiểm tra những người đang thực hiện nó, cấp phép cho nó, kiểm tra độ an toàn trước khi triển khai”.
Một số nhà lãnh đạo công nghệ và quan chức chính phủ bày tỏ lo ngại về tốc độ phát triển của các nền tảng AI.
Trong một bức thư ngỏ vào tháng 3 từ Future of Life Institute, Elon Musk, Steve Wozniak (đồng sáng lập Apple) cùng hơn 1.800 chuyên gia công nghệ cảnh báo rằng các hệ thống AI mạnh mẽ chỉ nên được phát triển khi có niềm tin rằng các tác động sẽ tích cực và rủi ro có thể kiểm soát được. Bức thư ngỏ kêu gọi tạm dừng 6 tháng với việc đào tạo các hệ thống AI mạnh hơn GPT-4 của OpenAI.
Sam Altman trả lời bức thư khi nói rằng nó "thiếu sắc thái kỹ thuật về nơi chúng tôi cần tạm dừng".
Đầu tháng 6, Sam Altman nằm trong số hơn 350 nhà khoa học và lãnh đạo công nghệ bày tỏ mối quan ngại sâu sắc về rủi ro AI.
Tuyên bố chung có đoạn: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.