OpenAI cùng Anthropic đã ký kết thỏa thuận với chính phủ Mỹ về nghiên cứu, thử nghiệm và đánh giá các mô hình trí tuệ nhân tạo (AI) của họ, Viện An toàn Trí tuệ Nhân tạo Mỹ cho biết hôm 29.8.
OpenAI và Anthropic là hai công ty khởi nghiệp hàng đầu về AI.
Thỏa thuận đầu tiên thuộc loại này được đưa ra trong bối cảnh các công ty đang đối mặt với sự giám sát về quy định liên quan đến việc sử dụng công nghệ AI một cách an toàn và đạo đức.
Các nhà làm luật California tuần này dự kiến sẽ bỏ phiếu về dự luật SB 1047 nhằm điều chỉnh rộng rãi cách phát triển và triển khai AI trong bang này.
"AI an toàn và đáng tin cậy là điều quan trọng với tác động tích cực của công nghệ này. Sự hợp tác của chúng tôi với Viện An toàn AI Mỹ dựa trên chuyên môn rộng lớn của họ để thử nghiệm kỹ lưỡng các mô hình của chúng tôi trước khi triển khai rộng rãi", Jack Clark, đồng sáng lập và trưởng bộ phận Chính sách tại Anthropic, cho biết. Anthropic được Amazon và Alphabet (công ty mẹ Google) đầu tư về tài chính.
Theo các thỏa thuận, Viện An toàn AI Mỹ sẽ có quyền truy cập vào các mô hình ngôn ngữ lớn từ cả OpenAI và Anthropic trước và sau khi hai công ty phát hành công khai.
Thỏa thuận này cũng sẽ cho phép nghiên cứu hợp tác để đánh giá khả năng của các mô hình AI và những rủi ro liên quan đến chúng.
"Chúng tôi tin rằng viện này có vai trò quan trọng trong việc xác định sự lãnh đạo của Mỹ trong việc phát triển AI một cách có trách nhiệm và hy vọng rằng công việc chung của chúng tôi sẽ cung cấp một khung mẫu mà thế giới có thể dựa vào," Jason Kwon, Giám đốc chiến lược tại OpenAI, nói.
Elizabeth Kelly, Giám đốc Viện An toàn AI Mỹ, cho hay: "Những thỏa thuận này chỉ là bước khởi đầu, nhưng đó là một cột mốc quan trọng khi chúng tôi làm việc để quản lý tương lai của AI một cách có trách nhiệm".
Là một phần của Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) thuộc Bộ Thương mại Mỹ, Viện An toàn AI Mỹ sẽ hợp tác với Viện An toàn AI Vương quốc Anh và cung cấp phản hồi cho các công ty về các cải tiến an toàn tiềm năng.
Viện An toàn AI Mỹ được thành lập vào năm ngoái như một phần lệnh hành pháp từ chính quyền Joe Biden để đánh giá các rủi ro đã biết và đang nổi lên của các mô hình AI.
Cảnh báo về "tác hại thảm khốc" nếu OpenAI phản đối dự luật an toàn AI của bang California
William Saunders và Daniel Kokotajlo, hai cựu nghiên cứu viên OpenAI, lên tiếng về việc công ty cũ phản đối SB 1047, dự luật được bang California đề xuất sẽ thực hiện các giao thức an toàn nghiêm ngặt trong quá trình phát triển AI, gồm cả kill switch.
Kill switch là thuật ngữ dùng để chỉ một cơ chế hoặc thiết bị có khả năng tắt hoặc vô hiệu hóa một hệ thống ngay lập tức, đặc biệt là trong các tình huống khẩn cấp để ngăn chặn thiệt hại hoặc nguy hiểm tiềm tàng.
Trong bối cảnh AI, kill switch thường ám chỉ một tính năng hoặc công cụ an toàn được thiết kế để nhanh chóng dừng hoạt động của một hệ thống AI nếu nó bắt đầu hành xử ngoài tầm kiểm soát hoặc gây nguy hiểm cho con người. Mục tiêu là đảm bảo rằng AI không thể tự ý tiếp tục hoạt động trong những tình huống có thể gây hại.
Theo trang Politico, William Saunders và Daniel Kokotajlo viết trong một lá thư gửi Thống đốc California - Gavin Newsom và các nhà làm luật khác rằng việc OpenAI phản đối dự luật này là đáng thất vọng nhưng không đáng ngạc nhiên.
"Chúng tôi gia nhập OpenAI vì muốn đảm bảo an toàn cho các hệ thống AI cực kỳ mạnh mẽ mà công ty đang phát triển. Thế nhưng, chúng tôi đã rời OpenAI vì mất niềm tin rằng công ty sẽ phát triển các hệ thống AI của mình một cách an toàn, trung thực và có trách nhiệm. Việc phát triển các mô hình AI tiên tiến mà không có các biện pháp phòng ngừa an toàn đầy đủ sẽ gây ra những rủi ro có thể lường trước được về tác hại thảm khốc với công chúng", William Saunders và Daniel Kokotajlo viết trong thư.
Thành phố San Francisco (bang California) là nơi OpenAI đặt trụ sở.
Sam Altman, Giám đốc điều hành OpenAI, đã nhiều lần công khai ủng hộ khái niệm về quy định AI, trích dẫn lời khai trước Quốc hội của ông kêu gọi sự can thiệp từ chính phủ Mỹ. “Nhưng khi quy định thực tế được đưa ra thảo luận, ông ấy lại phản đối", Saunders và Kokotajlo viết.
Một phát ngôn viên OpenAI nói với trang Insider trong một tuyên bố: "Chúng tôi hoàn toàn không đồng ý với việc mô tả sai lệch lập trường của chúng tôi về SB 1047". Người phát ngôn này đã chỉ dẫn Insider đến một lá thư riêng do Jason Kwon, Giám đốc chiến lược OpenAI, gửi cho Thượng nghị sĩ California - Scott Wiener, người đã giới thiệu dự luật SB 1047, giải thích lý do phản đối của công ty.
"SB1047 đã truyền cảm hứng cho cuộc tranh luận sâu sắc" và OpenAI ủng hộ một số điều khoản an toàn của nó, trích lá thư từ Jason Kwon. Thư này được gửi đến Scott Wiener một ngày trước khi Saunders và Kokotajlo gửi thư đi. Tuy nhiên, do những tác động đến an ninh quốc gia của quá trình phát triển AI, OpenAI tin rằng quy định nên được "định hình và thực hiện ở cấp liên bang".
"Một bộ chính sách AI do liên bang thúc đẩy, thay vì một mớ luật của tiểu bang, sẽ thúc đẩy sự đổi mới và định vị Mỹ dẫn đầu trong việc phát triển các tiêu chuẩn toàn cầu", theo lá thư của Jason Kwon.
Tuy nhiên, William Saunders và Daniel Kokotajlo không tin rằng việc thúc đẩy luật liên bang là lý do duy nhất khiến OpenAI phản đối dự luật SB 1047 của bang California, nói rằng những phàn nàn của công ty về dự luật "không mang tính xây dựng và dường như không có thiện chí".
"Chúng ta không thể chờ Quốc hội hành động. Quốc hội nói rõ ràng rằng không sẵn sàng thông qua các quy định quan trọng về AI. Nếu làm vậy, họ có thể ngăn chặn luật của California", Saunders và Kokotajlo viết.
Hai cựu nhân viên OpenAI kết luận: "Chúng tôi hy vọng rằng Cơ quan làm luật California cùng Thống đốc Gavin Newsom sẽ làm điều đúng đắn và thông qua SB 1047 thành luật. Với quy định phù hợp, chúng tôi hy vọng OpenAI có thể thực hiện được tuyên bố sứ mệnh của mình là xây dựng AGI một cách an toàn". AGI (AI tổng quát) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Ngày 26.8, Elon Musk (Giám đốc điều hành Tesla) kêu gọi bang California thông qua dự luật SB 1047, theo đó yêu cầu các hãng công nghệ và nhà phát triển AI phải tiến hành thử nghiệm an toàn trên một số mô hình AI của riêng họ.
Trong bài đăng trên X, tỷ phú giàu nhất thế giới cho biết: "Trong hơn 20 năm qua, tôi luôn ủng hộ việc quản lý AI, giống như cách chúng ta quản lý bất kỳ sản phẩm/công nghệ nào có khả năng gây rủi ro cho công chúng".
Các nhà làm luật California đã đưa ra 65 dự luật liên quan đến AI trong mùa này, gồm cả biện pháp đảm bảo tất cả quyết định thuật toán được chứng minh là vô tư và bảo vệ quyền sở hữu trí tuệ.
Cùng ngày 26.8, Microsoft lên tiếng ủng hộ việc OpenAI kêu gọi bang California thông qua dự luật AI khác có tên AB 3211, yêu cầu các hãng công nghệ phải dán nhãn nội dung do AI tạo ra, có thể từ meme vô hại đến deepfake nhằm mục đích phát tán thông tin sai lệch về các ứng cử viên tranh cử.