Sam Altman: ‘Việc tôi bị sa thải ở OpenAI ít gây căng thẳng hơn so với phát triển AI siêu thông minh’

Nhịp đập khoa học - Ngày đăng : 22:33, 18/01/2024

Sam Altman cho biết việc ông bị sa thải một cách đột ngột và sau đó được quay lại làm Giám đốc điều hành OpenAI ít gây căng thẳng hơn so với cách thế giới tiếp cận việc phát triển trí tuệ nhân tạo (AI) có khả năng tương đương con người.
Nhịp đập khoa học

Sam Altman: ‘Việc tôi bị sa thải ở OpenAI ít gây căng thẳng hơn so với phát triển AI siêu thông minh’

Sơn Vân {Ngày xuất bản}

Sam Altman cho biết việc ông bị sa thải một cách đột ngột và sau đó được quay lại làm Giám đốc điều hành OpenAI ít gây căng thẳng hơn so với cách thế giới tiếp cận việc phát triển trí tuệ nhân tạo (AI) có khả năng tương đương con người.

"Khi thế giới đến gần AGI (trí tuệ nhân tạo tổng quát), những rủi ro, căng thẳng, mức độ áp lực - tất cả đều sẽ tăng lên", Sam Altman (người sáng lập kiêm Giám đốc điều hành OpenAI) nói tại một buổi thảo luận tại Diễn đàn Kinh tế Thế giới ở trị trấn Davos, Thụy Sĩ hôm 18.1.2024.

AGI là một AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.

AI là chủ đề chính tại Diễn đàn Kinh tế Thế giới năm nay, với các nhà lãnh đạo doanh nghiệp thảo luận về cách tốt nhất để sử dụng công nghệ này sau một loạt khoản đầu tư, đồng thời nêu lên những lo ngại về rủi ro, gồm cả tác động tiềm tàng của nó với nền dân chủ trong một năm bầu cử quan trọng.

Sự tiến bộ nhanh chóng trong lĩnh vực này và cuộc đua của các công ty để đạt được AGI khiến nhiều chính trị gia kêu gọi việc áp đặt các quy định.

Sam Altman cho biết việc ông bị hội đồng quản trị sa thải vào tháng 11.2023 là “một ví dụ thu nhỏ của điều đó, nhưng có lẽ không phải là trải nghiệm căng thẳng nhất mà chúng tôi từng phải đối mặt”. Doanh nhân 38 tuổi nói tại hội thảo về công nghệ trong một thế giới đầy biến động. Ông cho biết sự cố này đã dạy cho OpenAI không nên để “những vấn đề không cấp thiết” kéo dài.

“Chúng tôi biết rằng hội đồng quản trị OpenAI là quá nhỏ nhoi và chúng tôi không có đủ kinh nghiệm cần thiết. Thế nhưng, 2023 lại là một năm quá điên rồ với công ty theo nhiều cách nên chúng tôi đã để vấn đề đó tồn tại", Sam Altman cho hay.

sam-altman-viec-toi-bi-sa-thai-o-openai-it-gay-cang-thang-hon-so-voi-ai-sieu-thong-minh-.jpg
Sam Altman (thứ hai từ trái sang) phát biểu trong một phiên thảo luận ở Davos vào ngày 18.1 - Ảnh: Bloomberg

Vào tháng 11.2023, hội đồng quản trị OpenAI bất ngờ sa thải Giám đốc điều hành Sam Altman vì “không thường xuyên giao tiếp thẳng thắn với họ”.

Trong cơn bối rối không có lời giải thích, sự việc đã trở thành cuộc trưng cầu dân ý về niềm tin vào AI, được đại diện bởi một bên là Sam Altman – chuyên thúc đẩy thương mại hóa AI, đối lập những người hoài nghi và bi quan mong muốn một cách tiếp cận chậm rãi và cẩn thận hơn với công nghệ này.

Những người lạc quan về AI và Sam Altman đã thắng. Vị CEO bị lật đổ hôm 17.11.2023 đã được phục hồi chức vụ chỉ vài ngày sau đó, một phần không nhỏ nhờ vào hầu hết nhân viên OpenAI đe dọa nghỉ việc nếu không có ông lãnh đạo.

Khi giải thích điều gì đã đưa công ty đến bờ vực, Sam Altman cho biết nhiều người đang lo lắng về những rủi ro cao khi phát triển AI có thể vượt qua trí tuệ con người.

"Tôi nghĩ rằng tất cả đã bùng nổ", doanh nhân người Mỹ 38 tuổi nói tại một sự kiện ở thành phố New York (Mỹ) vào tháng 12.2023.

Một số nhà nghiên cứu OpenAI đã cảnh báo về một bước đột phá AI mới trước khi Sam Altman bị sa thải, thông qua mô hình tuyệt mật có tên Q*, Reuters đưa tin vào tháng 11.2023.

Một câu hỏi được đặt ra bởi câu chuyện về OpenAI: Liệu tương lai AI và tác động của công nghệ này đến xã hội có tiếp tục được thảo luận sau cánh cửa đóng kín bởi một số ít người có đặc quyền ở Thung lũng Silicon không?

Các cơ quan quản lý do Liên minh châu Âu (EU) đứng đầu đã quyết tâm đóng vai trò chủ chốt trong năm 2024 với một kế hoạch toàn diện để xây dựng bức tường an ninh cho công nghệ dưới hình thức của Đạo luật AI. Các chi tiết của dự thảo sẽ được công bố trong vài tuần tới.

Các quy tắc này, cùng với những quy định đang được soạn thảo ở Vương quốc Anh và Mỹ, xuất hiện trong bối cảnh thế giới bước vào năm bầu cử lớn nhất trong lịch sử, gây lo ngại về thông tin sai lệch do AI tạo ra nhắm đến cử tri.

Chỉ riêng trong năm 2023, NewsGuard (công ty thiết lập hệ thống xếp hạng cho các trang web tin tức và thông tin) đã theo dõi 614 trang web “không đáng tin cậy” do AI tạo ra bằng 15 ngôn ngữ từ tiếng Anh, tiếng Ả Rập đến tiếng Trung.

Dù tốt hay xấu, hãy kỳ vọng AI, vốn đã được đưa vào sử dụng để thực hiện các cuộc kêu gọi vận động tranh cử ở Mỹ, sẽ đóng một vai trò to lớn trong nhiều cuộc bầu cử diễn ra trong năm 2024.

2024 là năm của những cuộc bầu cử. Hơn 30 quốc gia, với tổng dân số hơn 4 tỉ người, sẽ chứng kiến người dân của họ đi bỏ phiếu. Lần gần đây nhất mà nhiều quốc gia tham gia bầu cử, ChatGPT của OpenAI vẫn chưa tồn tại. Vì vậy, hai chủ đề này liên tục được đề cập đến tại các sự kiện bên lề Diễn đàn Kinh tế Thế giới ở Davos tuần này.

Nhà báo Brad Stone thuộc hãng tin Bloomberg đã nói chuyện với một số nhà lãnh đạo trong lĩnh vực AI tại Davos. Tất cả đều nói rằng họ lo lắng về mối đe dọa của AI với bầu cử nhưng lại chia rẽ về khả năng công nghệ này gây rối.

Satya Nadella (Giám đốc điều hành Microsoft) phần nào đánh giá thấp rủi ro do AI gây ra. Ông nói: “Đây không phải là cuộc bầu cử đầu tiên mà tin đồn, thông tin sai lệch và can thiệp bầu cử sẽ là thách thức thực sự mà chúng ta phải giải quyết”.

Sam Altman lặp lại quan điểm đó nhưng bày tỏ sự không chắc chắn hơn. “Tôi không nghĩ điều này sẽ giống như trước đây. Luôn luôn là sai lầm khi cố gắng dùng chiến thuật cũ trong trận chiến mới”.

Bill Gates, người đồng sáng lập Microsoft, dự đoán “kẻ xấu sẽ làm việc hiệu quả hơn” với AI.

Trong khi đó, Marc Benioff (Giám đốc điều hành Salesforce) cho rằng phương tiện truyền thông xã hội gây ra rủi ro lớn hơn cho quá trình dân chủ so với AI. Ông nói: “Các cơ quan quản lý đã không thực hiện công việc của họ”.

OpenAI tập trung khá nhiều vào việc giảm thiểu khả năng các công cụ của mình như ChatGPT và Dall-E bị lạm dụng cho mục đích chính trị.

Sam Altman và Satya Nadella từng tham dự cuộc họp vào tháng 5.2023 với Phó tổng thống Mỹ - Kamala Harris để thảo luận về các rủi ro của AI. OpenAI thông báo sẽ sớm phát hành để thử nghiệm công cụ có thể xác định nội dung do AI tạo và sẽ tạo hình mờ kỹ thuật số cho ảnh do Dall-E tạo.

OpenAI nhắc lại rằng việc sử dụng các mô hình ngôn ngữ lớn của hãng cho chiến dịch chính trị là không được phép.

“Tâm trí của chúng tôi không thoải mái. Chúng ta sẽ phải theo dõi điều này cực kỳ chặt chẽ trong năm nay”, Sam Altman nói.

Về việc chính trị sẽ tác động đến AI như thế nào, Sam Altman ít quan tâm hơn. “Tôi tin rằng nước Mỹ sẽ ổn dù có chuyện gì xảy ra trong cuộc bầu cử này. Tôi tin rằng AI sẽ ổn dù có chuyện gì xảy ra sau cuộc bầu cử này”, ông nói.

Anna Makanju, Phó chủ tịch phụ trách các vấn đề toàn cầu của OpenAI, nói bà được khuyến khích bởi quy định do Tổng thống Joe Biden và EU đề xuất. Bà nói: “Điều khiến tôi ấn tượng và thực sự đáng chú ý là cuộc trò chuyện xung quanh AI vẫn mang tính chất lưỡng đảng.

Sơn Vân