Có rất nhiều điều không chắc chắn về trí tuệ nhân tạo tổng quát (AGI), một dạng AI vẫn còn là giả thuyết được cho có thể lý luận tốt bằng hoặc hơn con người.
Nhịp đập khoa học

Cựu giám đốc OpenAI: AI sẽ sớm có thể làm bất cứ điều gì trên máy tính như con người

Sơn Vân 03/11/2024 12:47

Có rất nhiều điều không chắc chắn về trí tuệ nhân tạo tổng quát (AGI), một dạng AI vẫn còn là giả thuyết được cho có thể lý luận tốt bằng hoặc hơn con người.

Song theo các nhà nghiên cứu tiên phong trong ngành, chúng ta đang tiến gần đến việc đạt được một số dạng AI như vậy những năm tới.

Miles Brundage, cựu giám đốc nghiên cứu chính sách và chuẩn bị cho AGI tại OpenAI, nói trên podcast công nghệ Hard Fork rằng trong vài năm tới, ngành công nghiệp sẽ phát triển "các hệ thống AI về cơ bản thực hiện được bất cứ điều gì mà một người có thể làm trên máy tính". Điều đó gồm cả vận hành chuột và bàn phím hoặc thậm chí xuất hiện như "người trong cuộc trò chuyện video".

"Các chính phủ nên suy nghĩ về ý nghĩa của điều đó với các lĩnh vực cần đánh thuế và mảng giáo dục nên được đầu tư để chuẩn bị cho những thay đổi do AI mang lại", ông nói.

Thời gian biểu để các công ty như OpenAI tạo ra những cỗ máy có khả năng AGI là cuộc tranh luận đáng quan tâm với nhiều người theo dõi ngành này. Một số tên tuổi có ảnh hưởng trong lĩnh vực AI tin rằng AGI sẽ xuất hiện vài năm nữa.

John Schulman, người đồng sáng lập kiêm nhà khoa học nghiên cứu đã rời OpenAI vào tháng 8, cũng đoán AGI sẽ xuất hiện trong vài năm nữa. Dario Amodei, Giám đốc điều hành Anthropic - đối thủ cạnh tranh với OpenAI, cho rằng một số phiên bản của AGI có thể xuất hiện sớm nhất là vào năm 2026.

Rời OpenAI vào tháng 10 sau hơn 6 năm làm việc tại OpenAI, Miles Brundage hiểu biết sâu sắc nhất về thời gian biểu của công ty.

Trong thời gian làm việc tại OpenAI, Miles Brundage đã tư vấn các lãnh đạo và thành viên hội đồng quản trị về cách chuẩn bị cho AGI. Ông cũng chịu trách nhiệm cho một số sáng kiến nghiên cứu an toàn lớn nhất của OpenAI, gồm cả kiểm tra độc lập từ bên ngoài, trong đó có việc mời các chuyên gia bên thứ ba tìm kiếm những vấn đề tiềm ẩn trong các sản phẩm của công ty.

OpenAI chứng kiến ​​hàng loạt sự ra đi của một số nhà nghiên cứu và giám đốc an toàn cấp cao. Một số người trong đó nêu mối quan ngại về sự cân bằng giữa phát triển AGI và an toàn của công ty.

Miles Brundage nói việc ông rời OpenAI ít nhất không phải do những lo ngại cụ thể về an toàn. Ông tự tin rằng không có phòng thí nghiệm nghiên cứu nào khác có thể nắm bắt và xử lý mọi khía cạnh phức tạp liên quan đến phát triển AI như OpenAI.

Trong thông báo ban đầu về việc rời OpenAI, Miles Brundage nói ông muốn có nhiều tác động hơn với tư cách là nhà nghiên cứu chính sách hoặc người ủng hộ ở khu vực phi lợi nhuận.

Miles Brundage nói rằng vẫn giữ nguyên quyết định và giải thích lý do tại sao ông ra đi.

Miles Brundage muốn tự do làm việc trên các vấn đề rộng hơn ở ngành công nghiệp AI, không chỉ giới hạn trong nội bộ OpenAI, và muốn đưa ra ý kiến một cách khách quan hơn mà không bị ảnh hưởng bởi vị trí trong một công ty cụ thể.

cuu-giam-doc-openai-ai-se-som-co-the-lam-bat-cu-dieu-gi-tren-may-tinh-nhu-con-nguoi.jpg
Miles Brundage nói rằng trong vài năm tới, ngành công nghiệp sẽ phát triển "các hệ thống AI về cơ bản thực hiện được bất cứ điều gì mà một người có thể làm trên máy tính" - Ảnh: Internet

Giữa tháng 10, Microsoft cho biết Phó chủ tịch nghiên cứu trí tuệ nhân tạo (AI) tạo sinh Sebastien Bubeck sẽ rời công ty để gia nhập OpenAI.

"Sebastien Bubeck quyết định rời Microsoft để tiếp tục công việc phát triển AGI", một phát ngôn viên Microsoft thông báo, đồng thời nói thêm rằng công ty mong muốn tiếp tục mối quan hệ giữa họ thông qua công việc của Sebastien Bubeck tại OpenAI.

Hầu hết người cùng làm việc với Sebastien Bubeck trên bài báo nghiên cứu về mô hình ngôn ngữ Phi của Microsoft (nhỏ hơn các mô hình ngôn ngữ lớn truyền thống) vẫn ở lại công ty. Họ có kế hoạch tiếp tục phát triển các mô hình AI khác, trang theo Information.

Sự việc này diễn ra sau khi nhiều lãnh đạo rời OpenAI gần đây, gồm cả Giám đốc công nghệ Mira Murati. Sam Altman, Giám đốc điều hành OpenAI, phủ nhận bất kỳ mối liên hệ nào giữa việc ra đi này với kế hoạch tái cấu trúc công ty.

Trước đó, nhiều câu hỏi được đặt ra xoay quanh những gì đã thực sự xảy ra tại OpenAI trong bối cảnh hàng loạt lãnh đạo cao cấp rời đi.

Trang The Wall Street Journal tiết lộ những căng thẳng hậu trường đã tích tụ tại OpenAI trong 10 tháng kể từ khi Sam Altman trở lại làm Giám đốc điều hành sau thời gian ngắn hạn bị bãi nhiệm.

Việc bà Mira Murati rời khỏi vị trí Giám đốc công nghệ OpenAI hôm 26.9 đã gây chấn động ngành công nghệ. Chưa hết, hai lãnh đạo khác của OpenAI là Giám đốc nghiên cứu Bob McGrew và Phó chủ tịch nghiên cứu Barret Zoph cũng tuyên bố rời đi cùng ngày.

The Wall Street Journal nêu chi tiết những lo ngại mà một số người trong nội bộ đã nói về việc OpenAI ngày càng tập trung phát hành nhanh chóng các sản phẩm AI và thay đổi theo hướng tập trung vào lợi nhuận truyền thống hơn.

Các lãnh đạo OpenAI lo ngại về khả năng OpenAI sụp đổ sau khi nhà đồng sáng lập Ilya Sutskever rời đi vào tháng 5 và thực hiện những nỗ lực nhằm mời cựu giám đốc khoa học này trở lại công ty trước khi quyết định rút lời đề nghị, theo The Wall Street Journal.

Một phát ngôn viên OpenAI nói với trang Insider rằng công ty không đồng ý với những nhận định của The Wall Street Journal. Tuy nhiên, OpenAI nhận thấy rằng "phát triển từ một phòng thí nghiệm nghiên cứu vô danh thành công ty toàn cầu cung cấp nghiên cứu AI tiên tiến cho hàng trăm triệu người chỉ trong vòng hai năm đòi hỏi sự phát triển và thích ứng".

Người phát ngôn nói thêm rằng OpenAI cam kết sâu sắc với sứ mệnh của mình và "tự hào khi phát hành các mô hình AI mạnh mẽ, an toàn nhất trong ngành".

Hoàn cảnh xung quanh việc Ilya Sutskever rời đi phần lớn vẫn còn bí ẩn, nhưng trang The Wall Street Journal nhấn mạnh rằng đây là đòn giáng mạnh vào OpenAI và không phải điều mà các lãnh đạo mong muốn.

Ilya Sutskever từ chức Giám đốc khoa học OpenAI vào tháng 5, sáu tháng sau khi Sam Altman trở lại làm Giám đốc điều hành. Là một trong những thành viên hội đồng quản trị cũ bỏ phiếu sa thải Sam Altman hồi tháng 11.2023, Ilya Sutskever bày tỏ hối hận về quyết định này và không đến công ty làm việc kể từ đó.

Jan Leike, người đồng lãnh đạo nhóm superalignment của OpenAI với Ilya Sutskever, cũng từ chức hồi tháng 5 và và nhóm của họ bị giải thể. Dù OpenAI sau đó đã công bố một ủy ban an toàn mới, các lãnh đạo, gồm cả Mira Murati và Chủ tịch Greg Brockman, lo ngại rằng những sự từ chức này có thể dẫn đến làn sóng nghỉ việc nhiều hơn và công ty có thể sụp đổ, theo The Wall Street Journal.

Superalignment đề cập đến việc đảm bảo rằng các hệ thống AI tiên tiến, đặc biệt là AGI, hoạt động theo cách hoàn toàn phù hợp với lợi ích của con người và không gây hại.

Mira Murati và Greg Brockman đã cố gắng thuyết phục Ilya Sutskever quay trở lại OpenAI, gồm cả việc đến thăm nhà ông và mang theo thư từ các nhân viên khác, The Wall Street Journal cho biết. Sam Altman cũng đến thăm Ilya Sutskever và nói rằng ông thất vọng vì chưa tìm được vai trò phù hợp cho người đồng sáng lập OpenAI.

Có vẻ như nỗ lực này đã có hiệu quả. Ilya Sutskever được cho đang suy nghĩ về việc trở lại OpenAI, nhưng lời đề nghị tiềm năng bị hủy bỏ sau một cuộc gọi điện từ Greg Brockman, theo The Wall Street Journal. Lý do vì OpenAI vẫn chưa tìm ra giải pháp cho vai trò chính xác cho Ilya Sutskever trong cơ cấu mới của công ty.

Không lâu sau khi rời OpenAI, Ilya Sutskever thành lập Safe Superintelligence - công ty khởi nghiệp AI riêng tập trung vào vấn đề an toàn.

Ilya Sutskever từ lâu là nhà nghiên cứu nổi bật trong lĩnh vực AI, đóng góp vai trò quan trọng để OpenAI tạo ra ChatGPT, chatbot AI phổ biến đã kích hoạt cuộc đua giữa các hãng công nghệ lớn nhất thế giới để giành quyền thống trị trong lĩnh vực AI tạo sinh.

Những đóng góp của Sutskever được nhiều nhân viên tôn trọng.

Các nhân viên cũ và hiện tại của OpenAI nói với The Wall Street Journal rằng việc công bố sản phẩm mới và kiểm tra an toàn đã bị đẩy nhanh do lo ngại rằng công ty đang mất lợi thế so với các đối thủ cạnh tranh trong lĩnh vực AI.

Một số nhân viên OpenAI rời đi cũng công khai bày tỏ lo ngại về việc thiếu các biện pháp bảo vệ an toàn phù hợp.

The Wall Street Journal cung cấp một số chi tiết mới về vai trò của Mira Murati với tư cách là Giám đốc công nghệ OpenAI trong bối cảnh chịu áp lực để chuẩn bị và phát hành các sản phẩm mới.

Mô hình ngôn ngữ lớn GPT-4o là một trong những sản phẩm được OpenAI đẩy nhanh tiến độ phát hành. Mira Murati đã nhiều lần trì hoãn một số tính năng trong GPT-4o dự kiến ra mắt, như tìm kiếm và tương tác bằng giọng nói, do lo ngại chúng chưa sẵn sàng. Chế độ giọng nói nâng cao của ChatGPT mới bắt đầu được triển khai cho người dùng đầu tháng 10 sau khi được công bố cách đây hơn 4 tháng.

Công ty đã gửi một ghi chú cho các nhà đầu tư sau khi Mira Murati rời đi để trấn an họ. Giám đốc tài chính OpenAI nói với các nhà đầu tư rằng dù sự thay đổi lãnh đạo không dễ dàng, công ty vẫn "tập trung cao độ vào việc đưa AI đến với mọi người và xây dựng các mô hình doanh thu bền vững".

Triển khai tính năng tìm kiếm trong ChatGPT, trì hoãn ra mắt GPT-5

Hôm 31.10, OpenAI đã triển khai tính năng tìm kiếm trong ChatGPT, hoạt động tương tự các công cụ tìm kiếm như Google, Bing và Perplexity.

Sam Altman gọi đây là “tính năng yêu thích nhất mà OpenAI từng triển khai kể từ khi ra mắt ChatGPT” .

Theo ông, việc tìm kiếm qua ChatGPT sẽ giúp người dùng có được thông tin dễ dàng hơn, đặc biệt là những truy vấn yêu cầu nghiên cứu phức tạp. Sam Altman kỳ vọng trong tương lai sẽ có những kết quả tìm kiếm tự động hiển thị thành một trang web tùy chỉnh cho người dùng.

Srinivas Narayanan, Phó chủ tịch kỹ thuật OpenAI, tiết lộ ChatGPT sử dụng một tập hợp các dịch vụ tìm kiếm, gồm cả Bing.

OpenAI cho biết công cụ tìm kiếm ChatGPT sẽ lựa chọn tìm trên web dựa trên những gì người dùng yêu cầu và sẽ cung cấp câu trả lời nhanh chóng, kịp thời kèm theo liên kết đến những nguồn web có liên quan.

"Công cụ này tận dụng các nhà cung cấp dịch vụ tìm kiếm của bên thứ ba cũng như nội dung do đối tác của chúng tôi cung cấp trực tiếp, để mang đến thông tin mà người dùng muốn tìm", OpenAI viết trên blog.

OpenAI đã ký các thỏa thuận nội dung với nhiều nhà xuất bản trong năm nay, gồm cả Condé Nast, Time, Financial Times, Axel Springer, AP, Reuters, Times, News Corp, báo Le Monde (Pháp) và Prisa Media (Tây Ban Nha), để đảm bảo rằng ChatGPT cung cấp thông tin được kiểm duyệt và đáng tin cậy.

Sam Altman tiết lộ GPT-5, mô hình ngôn ngữ lớn tiếp theo của OpenAI, sẽ không được phát hành trong năm nay.

"Tất cả mô hình này đã trở nên khá phức tạp và chúng tôi không thể triển khai đồng thời nhiều thứ như mong muốn", Sam Altman viết. Ông tiết lộ thêm rằng OpenAI đang phải đối mặt với "những hạn chế và quyết định khó khăn" về cách phân bổ tài nguyên tính toán cho một số "ý tưởng tuyệt vời."

Sam Altman nói OpenAI sẽ trình làng "một số sản phẩm rất đáng chú ý cuối năm nay" nhưng không có GPT-5.

Kevin Weil, Giám đốc sản phẩm OpenAI, nói mô hình chuyển văn bản thành video Sora vẫn cần được hoàn thiện với các tính năng an toàn và tránh giả mạo chính xác. Công ty vẫn hiện chưa có kế hoạch phát hành phiên bản mới của mô hình tạo hình ảnh DALL-E, nhưng Sam Altman nói rằng bản cập nhật tiếp theo "sẽ đáng để chờ đợi".

Bài liên quan
Bị OpenAI sa thải vì làm rò rỉ thông tin AGI, chuyên gia dự đoán tương lai AI qua bài luận 165 trang
Leopold Aschenbrenner tiết lộ những suy nghĩ của mình về cuộc cách mạng AI trong bài luận dài 165 trang.

(0) Bình luận
Nổi bật Một thế giới
Thứ trưởng Bộ GD-ĐT phân tích về quy định khống chế chỉ tiêu xét tuyển sớm
5 giờ trước Giáo dục
Theo Thứ trưởng Bộ GD-ĐT Hoàng Minh Sơn, vì xét tuyển sớm, nhiều học sinh có tâm lý đã trúng tuyển rồi nên không quan tâm chuyện học hành nữa, đến lớp chỉ để ngồi chơi. Nhiều em vào lớp 10 trường chuyên gần như yên tâm trúng tuyển rồi và không tập trung vào học toàn diện.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Cựu giám đốc OpenAI: AI sẽ sớm có thể làm bất cứ điều gì trên máy tính như con người