William Saunders và Daniel Kokotajlo, hai cựu nghiên cứu viên OpenAI, lên tiếng về việc công ty cũ phản đối SB 1047, dự luật được bang California (Mỹ) đề xuất sẽ thực hiện các giao thức an toàn nghiêm ngặt trong quá trình phát triển trí tuệ nhân tạo (AI), gồm cả kill switch.
Nhịp đập khoa học

Hai cựu nhân viên cảnh báo về 'tác hại thảm khốc' khi OpenAI phản đối dự luật an toàn AI

Sơn Vân 18:33 24/08/2024

William Saunders và Daniel Kokotajlo, hai cựu nghiên cứu viên OpenAI, lên tiếng về việc công ty cũ phản đối SB 1047, dự luật được bang California (Mỹ) đề xuất sẽ thực hiện các giao thức an toàn nghiêm ngặt trong quá trình phát triển trí tuệ nhân tạo (AI), gồm cả kill switch.

Kill switch là thuật ngữ dùng để chỉ một cơ chế hoặc thiết bị có khả năng tắt hoặc vô hiệu hóa một hệ thống ngay lập tức, đặc biệt là trong các tình huống khẩn cấp để ngăn chặn thiệt hại hoặc nguy hiểm tiềm tàng.

Trong bối cảnh AI, kill switch thường ám chỉ một tính năng hoặc công cụ an toàn được thiết kế để nhanh chóng dừng hoạt động của một hệ thống AI nếu nó bắt đầu hành xử ngoài tầm kiểm soát hoặc gây nguy hiểm cho con người. Mục tiêu là đảm bảo rằng AI không thể tự ý tiếp tục hoạt động trong những tình huống có thể gây hại.

Theo trang Politico, William Saunders và Daniel Kokotajlo viết trong một lá thư gửi Thống đốc California - Gavin Newsom và các nhà làm luật khác rằng việc OpenAI phản đối dự luật này là đáng thất vọng nhưng không đáng ngạc nhiên.

"Chúng tôi gia nhập OpenAI vì muốn đảm bảo an toàn cho các hệ thống AI cực kỳ mạnh mẽ mà công ty đang phát triển. Thế nhưng, chúng tôi đã rời OpenAI vì mất niềm tin rằng công ty sẽ phát triển các hệ thống AI của mình một cách an toàn, trung thực và có trách nhiệm. Việc phát triển các mô hình AI tiên tiến mà không có các biện pháp phòng ngừa an toàn đầy đủ sẽ gây ra những rủi ro có thể lường trước được về tác hại thảm khốc với công chúng", William Saunders và Daniel Kokotajlo viết trong thư.

Thành phố San Francisco (bang California) là nơi OpenAI đặt trụ sở.

Sam Altman, Giám đốc điều hành OpenAI, đã nhiều lần công khai ủng hộ khái niệm về quy định AI, trích dẫn lời khai trước Quốc hội của ông kêu gọi sự can thiệp từ chính phủ Mỹ. “Nhưng khi quy định thực tế được đưa ra thảo luận, ông ấy lại phản đối", Saunders và Kokotajlo viết.

Một phát ngôn viên OpenAI nói với trang Insider trong một tuyên bố: "Chúng tôi hoàn toàn không đồng ý với việc mô tả sai lệch lập trường của chúng tôi về SB 1047". Người phát ngôn này đã chỉ dẫn Insider đến một lá thư riêng do Jason Kwon, Giám đốc chiến lược OpenAI, gửi cho Thượng nghị sĩ California - Scott Wiener, người đã giới thiệu dự luật SB 1047, giải thích lý do phản đối của công ty.

"SB1047 đã truyền cảm hứng cho cuộc tranh luận sâu sắc" và OpenAI ủng hộ một số điều khoản an toàn của nó, trích lá thư từ Jason Kwon. Thư này được gửi đến Scott Wiener một ngày trước khi Saunders và Kokotajlo gửi thư đi. Tuy nhiên, do những tác động đến an ninh quốc gia của quá trình phát triển AI, OpenAI tin rằng quy định nên được "định hình và thực hiện ở cấp liên bang".

"Một bộ chính sách AI do liên bang thúc đẩy, thay vì một mớ luật của tiểu bang, sẽ thúc đẩy sự đổi mới và định vị Mỹ dẫn đầu trong việc phát triển các tiêu chuẩn toàn cầu", theo lá thư của Jason Kwon.

Tuy nhiên, William Saunders và Daniel Kokotajlo không tin rằng việc thúc đẩy luật liên bang là lý do duy nhất khiến OpenAI phản đối dự luật SB 1047 của bang California, nói rằng những phàn nàn của công ty về dự luật "không mang tính xây dựng và dường như không có thiện chí".

"Chúng ta không thể chờ Quốc hội hành động. Quốc hội nói rõ ràng rằng không sẵn sàng thông qua các quy định quan trọng về AI. Nếu làm vậy, họ có thể ngăn chặn luật của California", Saunders và Kokotajlo viết.

Hai cựu nhân viên OpenAI kết luận: "Chúng tôi hy vọng rằng Cơ quan làm luật California cùng Thống đốc Gavin Newsom sẽ làm điều đúng đắn và thông qua SB 1047 thành luật. Với quy định phù hợp, chúng tôi hy vọng OpenAI có thể thực hiện được tuyên bố sứ mệnh của mình là xây dựng AGI một cách an toàn". AGI (AI tổng quát) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.

William Saunders và Daniel Kokotajlo không trả lời ngay lập tức câu hỏi của trang Insider.

hai-cuu-nhan-vien-canh-bao-ve-tac-hai-tham-khoc-khi-openai-phan-doi-du-luat-an-toan-ai.jpg
William Saunders và Daniel Kokotajlo không tin rằng việc thúc đẩy luật liên bang là lý do duy nhất khiến OpenAI phản đối dự luật SB 1047 của bang California - Ảnh: Intternet

William Saunders: “OpenAI đang đóng tàu Titanic, cần thêm xuồng cứu sinh”

Từng làm việc ba năm với tư cách là thành viên đội ngũ kỹ thuật trong bộ phận superalignment của OpenAI, William Saunders cho biết: “Tôi thực sự không muốn làm việc cho Titanic của AI. Đó là lý do tại sao tôi nghỉ việc”. Ông chia sẻ điều này trên podcast của YouTuber công nghệ Alex Kantrowitz.

Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại. Công việc liên quan đến superalignment gồm phát triển các phương pháp để đảm bảo rằng những mục tiêu và hành động của AI không chỉ phù hợp với các giá trị và mong muốn của con người, mà còn có thể đối phó với tình huống phức tạp, không lường trước được. Điều này có thể gồm:

- Xây dựng các biện pháp an toàn và bảo mật mạnh mẽ để đảm bảo rằng AI không thể bị lạm dụng.

- Phát triển các hệ thống giám sát và kiểm soát hiệu quả để theo dõi và điều chỉnh hành vi của AI kịp thời.

- Nghiên cứu về khả năng đối phó với các tình huống bất ngờ hoặc cực đoan để đảm bảo AI hoạt động an toàn ngay cả trong các tình huống ngoài dự đoán.

- Đảm bảo tính minh bạch và trách nhiệm trong quyết định của AI để con người có thể hiểu và kiểm soát được hành vi của AI.

"Trong ba năm làm việc tại OpenAI, đôi khi tôi tự hỏi mình một câu: Con đường mà OpenAI đang đi giống chương trình Apollo hay tàu Titanic hơn?", Saunders nói.

Mối lo ngại trong kỹ sư phần mềm này phần lớn xuất phát từ kế hoạch của OpenAI nhằm đạt được AGI và ra mắt các sản phẩm trả phí.

Saunders nói: “Họ đang trên quỹ đạo thay đổi thế giới, song khi phát hành mọi thứ, ưu tiên của họ lại giống một công ty sản phẩm hơn. Tôi nghĩ đó là điều đáng lo ngại nhất”.

hai-cuu-nhan-vien-canh-bao-ve-tac-hai-tham-khoc-khi-openai-phan-doi-du-luat-an-toan-ai-1.jpg
William Saunders nói nghỉ việc vì OpenAI đang 'đóng tàu Titanic, muốn bán những thứ mới và sáng bóng hơn' - Ảnh chụp màn hình

Khi dành nhiều thời gian hơn cho OpenAI, Saunders cảm thấy các nhà lãnh đạo công ty đang đưa ra các quyết định giống với việc "đóng tàu Titanic hơn, ưu tiên tạo ra các sản phẩm mới hơn, sáng bóng hơn".

Saunders thích phương pháp tiếp cận giống như chương trình không gian Apollo, mà ông mô tả là ví dụ về một dự án đầy tham vọng “dự đoán và đánh giá rủi ro cẩn thận”, đồng thời vẫn thúc đẩy và mở rộng các giới hạn của khoa học.

Saunders nói: “Ngay cả khi những vấn đề lớn xảy ra, như Apollo 13, họ vẫn có đủ lực dự phòng và có thể thích ứng với tình hình để đưa mọi người trở về an toàn”.

Ngược lại, tàu Titanic được White Star Line chế tạo khi hãng này cạnh tranh với các đối thủ để tạo ra những tàu du lịch lớn hơn, Saunders cho biết.

Saunders lo ngại rằng giống như các biện pháp bảo vệ tàu Titanic, OpenAI có thể phụ thuộc quá nhiều vào những biện pháp và nghiên cứu hiện tại về an toàn AI.

Ông nói: “Rất nhiều công việc đã được thực hiện để đảm bảo con tàu an toàn và xây dựng các khoang chống thấm nước để người ta có thể nói rằng nó không thể chìm. Song đồng thời cũng không có đủ xuồng cứu sinh cho mọi người. Thế nên khi thảm họa xảy ra, rất nhiều người đã thiệt mạng”.

Các sứ mệnh Apollo được thực hiện trong bối cảnh cuộc chạy đua không gian thời Chiến tranh Lạnh với Nga. Chúng cũng liên quan đến một số vụ thương vong nghiêm trọng, trong đó có ba phi hành gia NASA (Cơ quan Hàng không và Vũ trụ Mỹ) thiệt mạng năm 1967 do hỏa hoạn về điện trong một cuộc thử nghiệm.

Giải thích thêm về phép ẩn dụ của mình trong email gửi đến trang Insider, Saunders viết: "Đúng, chương trình Apollo có những bi kịch của riêng mình. Không thể phát triển AGI hoặc bất kỳ công nghệ mới nào mà không có rủi ro. Điều tôi muốn thấy là công ty thực hiện tất cả bước hợp lý có thể để ngăn chặn những rủi ro này".

Saunders nói rằng "thảm họa Titanic" với AI có thể biểu hiện ở một mô hình ngôn ngữ lớn có thể phát động cuộc tấn công mạng quy mô lớn, thuyết phục đông đảo người tham gia một chiến dịch hoặc giúp chế tạo vũ khí sinh học.

Trong thời gian tới, OpenAI nên đầu tư vào các "xuồng cứu sinh" bổ sung, như trì hoãn việc phát hành các mô hình ngôn ngữ lớn mới để các nhóm có thể nghiên cứu các tác hại tiềm ẩn, anh cho hay.

Khi còn ở trong bộ phận Superalignment, Saunders đã lãnh đạo một nhóm gồm 4 nhân viên chuyên tìm hiểu cách hoạt động của các mô hình ngôn ngữ lớn, điều mà anh cho rằng con người chưa biết đầy đủ.

Saunders lý giải: “Nếu trong tương lai, chúng ta xây dựng các hệ thống AI thông minh bằng hoặc hơn hầu hết con người thì sẽ cần các kỹ thuật để có thể biết liệu chúng có đang che giấu khả năng hay động cơ hay không”.

Trong cuộc phỏng vấn với Alex Kantrowitz, Saunders nói thêm rằng nhân viên OpenAI thường thảo luận các lý thuyết về việc AI có thể trở thành lực lượng "có khả năng biến đổi mạnh mẽ" chỉ sau vài năm nữa.

Ông nói: “Tôi nghĩ khi công ty nói về điều này, họ có nhiệm vụ phải chuẩn bị cho điều đó”.

Đến nay, Saunders vẫn thất vọng với hành động của OpenAI.

Trong email gửi tới Insider, Saunders viết: “Dù có những nhân viên tại OpenAI đang làm tốt công việc hiểu biết và ngăn ngừa rủi ro, nhưng tôi không thấy có đủ mức độ ưu tiên cho việc này”.

Saunders rời OpenAI vào tháng 2. Sau đó, công ty đã giải thể bộ phận Superalignment vào tháng 5, chỉ vài ngày sau khi công bố mô hình ngôn ngữ lớn đa phương thức GPT-4o.

Các hãng công nghệ như OpenAI, Microsoft, Apple, Google và Meta Platforms đã tham gia vào cuộc chạy đua về AI, làm dấy lên làn sóng đầu tư sôi nổi vào lĩnh vực được nhiều người dự đoán sẽ là bước đột phá lớn tiếp theo tương tự như internet.

Tốc độ phát triển AI chóng mặt đã khiến một số nhân viên và chuyên gia cảnh báo rằng cần phải quản trị doanh nghiệp nhiều hơn để tránh những thảm họa trong tương lai.

Đầu tháng 6, một nhóm nhân viên cũ và hiện tại ở Google Deepmind và OpenAI, gồm cả Saunders, đã đăng bức thư ngỏ cảnh báo rằng các tiêu chuẩn giám sát hiện tại của ngành không đủ để bảo vệ nhân loại khỏi thảm họa.

Ilya Sutskever (đồng sáng lập và cựu Giám đốc khoa học OpenAI từng lãnh đạo bộ phận Superalignment), đã từ chức vào giữa tháng 5, một ngày sau khi GPT-4o trình làng.

Sau đó, Ilya Sutskever đã thành lập công ty khởi nghiệp Safe Superintelligence mà ông cho biết sẽ tập trung vào nghiên cứu AI và đảm bảo “sự an toàn luôn được đặt lên hàng đầu”.

Bài liên quan
Intel tụt hậu thế nào sau khi từ chối thỏa thuận với OpenAI và nhận định sai lầm về GPU?
Số phận hãng chip Intel (Mỹ), vốn là ngôi sao sáng trong thời đại máy tính trước khi rơi vào tình trạng khó khăn trong kỷ nguyên trí tuệ nhân tạo (AI), có thể đã khác nhiều nếu không bỏ qua cơ hội mua cổ phần OpenAI.

(0) Bình luận
Nổi bật Một thế giới
Vui buồn nghề muối Bạc Liêu - Bài 2: Ứng dụng kỹ thuật, công nghệ mới
Để làm giàu trên chính đồng muối của gia đình, nhiều diêm dân ở Bạc Liêu đã mạnh dạn đầu tư vật tư, thiết bị cơ giới hóa để sản xuất muối theo hướng công nghệ cao. Hướng đi mới đã khẳng định được hiệu quả, góp phần nâng cao sản lượng lẫn chất lượng hạt muối.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Hai cựu nhân viên cảnh báo về 'tác hại thảm khốc' khi OpenAI phản đối dự luật an toàn AI