OpenAI bắt đầu đào tạo mô hình AI tiên tiến mới hướng tới AGI, GPT-5 không ra mắt trong 90 ngày tới
Nhịp đập khoa học - Ngày đăng : 23:08, 28/05/2024
OpenAI bắt đầu đào tạo mô hình AI tiên tiến mới hướng tới AGI, GPT-5 không ra mắt trong 90 ngày tới
OpenAI vừa thông báo bắt đầu đào tạo mô hình tiên tiến mới, đồng thời thành lập Ủy ban An toàn và Bảo mật.
Ủy ban An toàn và Bảo mật này sẽ do các thành viên hiện tại của hội đồng quản trị OpenAI dẫn dắt, gồm Bret Taylor (Chủ tịch hội đồng quản trị OpenAI, đồng sáng lập công ty khởi nghiệp dịch vụ khách hàng Sierra AI, cựu lãnh đạo Google Maps và cựu Giám đốc công nghệ của Facebook), Adam D’Angelo (Giám đốc điều hành Quora và ứng dụng tổng hợp mô hình AI Poe), Nicole Seligman (cựu Phó chủ tịch điều hành và cố vấn pháp lý toàn cầu của Sony Corporation) và Sam Altman (nhà đồng sáng lập và Giám đốc điều hành OpenAI).
OpenAI viết trong một bài đăng trên blog của công ty: “OpenAI gần đây đã bắt đầu đào tạo mô hình tiên tiến tiếp theo của mình và dự đoán các hệ thống kết quả sẽ đưa chúng tôi lên một tầm cao mới về khả năng trên con đường tiến tới AGI (AI tổng quát). Dù tự hào xây dựng và cho ra mắt những mô hình dẫn đầu ngành về cả khả năng lẫn độ an toàn, chúng tôi hoan nghênh một cuộc tranh luận mạnh mẽ vào thời điểm quan trọng này”.
AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Bắt đầu đếm ngược 90 ngày
OpenAI phác thảo vai trò của Ủy ban An toàn và Bảo mật trong việc chỉ đạo phát triển mô hình AI tiên tiến mới: “Nhiệm vụ đầu tiên của Ủy ban sẽ là đánh giá và phát triển hơn nữa các quy trình và biện pháp bảo vệ của OpenAI trong 90 ngày tới. Khi kết thúc 90 ngày, Ủy ban sẽ chia sẻ các khuyến nghị của họ với toàn thể hội đồng quản trị. Sau khi toàn thể hội đồng quản trị xem xét, OpenAI sẽ chia sẻ công khai bản cập nhật về các khuyến nghị đã được thông qua theo cách phù hợp về an toàn và bảo mật”.
Do đó, thật hợp lý khi kết luận rằng bất kể mô hình tiên tiến mới là gì, có thể được gọi là GPT-5 hay cái gì khác, nó sẽ không được phát hành trong ít nhất 90 ngày nữa, để ủy ban mới có thời gian cần thiết để đánh giá và phát triển thêm các quy trình và biện pháp bảo vệ của OpenAI, nhằm đưa ra các khuyến nghị đầy đủ cho hội đồng quản trị.
Điều đó đồng nghĩa hội đồng quản trị OpenAI sẽ nhận được khuyến nghị của Ủy ban An toàn và Bảo mật chậm nhất là ngày 26.8 tới.
Tại sao lại là 90 ngày mà không phải dài hơn, ngắn hơn hoặc một khoảng thời gian khác? OpenAI không thực sự nêu rõ, nhưng đây là tiêu chuẩn thông dụng được sử dụng trong kinh doanh để đánh giá và cung cấp phản hồi về các quy trình, đồng thời có vẻ phù hợp vì không quá ngắn, không quá dài.
Ủy ban mới không độc lập
Tin tức này ngay lập tức nhận về sự chỉ trích khi một số người lưu ý rằng ủy ban mới hoàn toàn do các thành viên hội đồng quản trị OpenAI điều hành, nghĩa là việc đánh giá các biện pháp an toàn của công ty sẽ không độc lập.
Hội đồng quản trị cũ của OpenAI từng là nguồn gây tranh cãi khi sa thải Altman khỏi vị trí giám đốc điều hành công ty vào ngày 17.11.2023, chỉ 5 ngày trước lễ kỷ niệm 1 năm ra mắt ChatGPT, với lý do rằng ông "không luôn trung thực với họ". Thế nhưng, hành động này phải bị phản đối gay gắt bởi đa số nhân viên và các nhà đầu tư vào OpenAI, gồm cả nhà tài trợ lớn nhất là Microsoft.
Sam Altman đã được phục hồi chức vụ Giám đốc điều hành OpenAI vào ngày 21.11.2023. OpenAI lập ra hội đồng quản trị mới gồm Bret Taylor, Larry Summers và Adam D'Angelo, còn Microsoft tham gia với tư cách là quan sát viên không bỏ phiếu. Thời điểm đó, hội đồng quản trị OpenAI bị chỉ trích vì không có nữ giới.
Ngày 8.3.2024, hội đồng quản trị mới của OpenAI có thêm Sam Altman và ba thành viên nữ là Nicole Seligman, Sue Desmond-Hellmann (cựu Giám đốc điều hành của Quỹ Bill và Melinda Gates), Fidji Simo (Giám đốc điều hành và Chủ tịch của Instacart).
Thời điểm khó khăn cho OpenAI
OpenAI đã phát hành mô hình AI mới nhất GPT-4o hôm 14.5 và gặp một chút khủng hoảng trong quan hệ công chúng kể từ đó.
GPT-4o là mô hình đầu tiên của OpenAI (và có thể là cả thế giới) được đào tạo trên các đầu vào và đầu ra đa phương thức ngay từ đầu, thay vì kết hợp nhiều mô hình được đào tạo trên văn bản và phương tiện truyền thông như với GPT-4 trước đó. Thế nhưng, nữ diễn viên Scarlett Johansson cáo buộc OpenAI sao chép giọng nói của cô cho GPT-4o.
Cụ thể hơn, OpenAI đã ra mắt tùy chọn giọng nói AI Sky cho ChatGPT cùng GPT-4o. Nhiều người ngay lập tức nhận ra sự giống nhau giữa giọng nói của Sky với Scarlett Johansson, đặc biệt là màn thể hiện của diễn viên này trong bộ phim Her năm 2013 khi cô lồng tiếng cho trợ lý AI mà nhân vật nam chính yêu.
Hôm 20.5, Scarlett Johansson tiết lộ Sam Altman lần đầu tiên liên lạc với cô vào tháng 9.2023 để đề nghị nữ diễn viên lồng tiếng cho ChatGPT nhưng bị từ chối. Sau đó, Giám đốc điều hành OpenAI liên lạc lại với Scarlett Johansson chỉ hai ngày trước khi công ty giới thiệu GPT-4o để đề nghị cô xem xét lại.
Cũng trong ngày 20.5, Sam Altman cho biết: "Giọng nói ChatGPT không phải của Scarlett Johansson và công ty không bao giờ có ý định sao chép giọng nói của cô ấy. Chúng tôi đã chọn diễn viên lồng tiếng cho giọng nói của Sky trước khi tiếp cận Johansson".
Tờ The Washington Post đưa tin OpenAI không có ý định sao chép giọng nói của Scarlett Johansson. Nữ diễn viên lồng tiếng cho Sky chỉ đơn giản sử dụng giọng tự nhiên của mình, theo các clip mà The Washington Post nghe được.
The Washington Post cho biết yêu cầu tuyển diễn viên của OpenAI đưa ra hồi năm ngoái là tìm những người có giọng nói "ấm áp, hấp dẫn và cuốn hút". OpenAI cần diễn viên trong độ tuổi từ 25 đến 45 và không thuộc công đoàn, nhưng công ty này được cho không yêu cầu diễn viên phải giống giọng Scarlett Johansson.
Người đại diện của diễn viên lồng tiếng cho Sky nói với The Washington Post rằng OpenAI không bao giờ đề cập đến Scarlett Johansson hoặc bộ phim Her năm 2013 mà cô tham gia lồng tiếng.
OpenAI dường như cũng không chỉnh sửa bản ghi âm của diễn viên lồng tiếng cho Sky để giống với giọng Scarlett Johansson, dựa trên các clip thử giọng ban đầu mà The Washington Post đã nghe.
Hôm 15.5 vừa qua, chỉ 1 ngày sau khi GPT-4o trình làng, Ilya Sutskever (nhà đồng sáng lập và cựu Giám đốc khoa học OpenAI) cho biết sẽ rời công ty.
“Sau gần một thập kỷ, tôi đã đưa ra quyết định rời OpenAI”, Ilya Sutskever viết trong một bài đăng trên X hôm 15.5.
Ilya Sutskever cho biết ông đang thực hiện một dự án mới "rất có ý nghĩa với cá nhân tôi và tôi sẽ chia sẻ chi tiết vào thời điểm thích hợp".
Sam Altman đã ca ngợi Ilya Sutskever là "một trong những bộ óc vĩ đại nhất của thế hệ chúng ta, một ngọn đèn chỉ đường cho lĩnh vực AI và là người bạn thân thiết".
"OpenAI sẽ không thể như ngày nay nếu không có anh. Dù anh có một công việc cá nhân đầy ý nghĩa cần theo đuổi, tôi mãi mãi biết ơn những gì anh đã làm ở đây và cam kết hoàn thành sứ mệnh mà chúng tôi bắt đầu cùng nhau", Sam Altman viết.
Ilya Sutskever là thành viên trong hội đồng quản trị cũ của OpenAI từng biểu quyết sa thải Sam Altman, song sau đó bày tỏ sự hối hận vì quyết định này.
Sau khi Sam Altman trở lại làm Giám đốc điều hành OpenAI, Ilya Sutskever bị loại khỏi hội đồng quản trị và vị trí của ông tại công ty trở nên không rõ ràng.
Dù Sam Altman tuyên bố "không có ác ý với Ilya Sutskever và muốn tiếp tục mối quan hệ công việc giữa chúng tôi", Giám đốc điều hành OpenAI từng thừa nhận với trang The Verge là "tổn thương và tức giận" do bị hội đồng quản trị cũ sa thải.
Trong nội bộ, Ilya Sutskever được coi là một "người có tầm nhìn xa" về AI và phong cách "hàn lâm" của ông không được các kỹ sư như Sam Altman và Chủ tịch Greg Brockman ưa thích. Tuy nhiên, những đóng góp của Sutskever vẫn được nhiều nhân viên tôn trọng.
Hôm 17.5 vừa qua, trang Wired đưa tin OpenAI đã giải tán nhóm rủi ro về AI của Ilya Sutskever. OpenAI cho biết các nhà nghiên cứu đang điều tra những nguy hiểm của AI sẽ được sáp nhập vào các bộ phận khác trong công ty.
Jan Leike, lãnh đạo nhóm rủi ro về AI cùng Ilya Sutskever, cũng tuyên bố nghỉ việc tối 15.5 với bài đăng thẳng thắn trên mạng xã hội X: "Tôi đã từ chức".
Jan Leike chia sẻ thêm về lý do nghỉ việc và cho biết OpenAI không coi trọng vấn đề an toàn đủ nghiêm túc.
"Những năm qua, văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng", Jan Leike viết trong chuỗi bài dài trên X hôm 17.5.
Ngoài Jan Leike và Ilya Sutskever, Diane Yoon (cựu phó chủ tịch phụ trách nhân sự) và Chris Clark (giám đốc các sáng kiến phi lợi nhuận và chiến lược) cũng rời OpenAI, theo trang The Information. Trang Insider đưa tin hai nhà nghiên cứu khác làm việc về an toàn AI đã nghỉ việc tại công ty.
Một trong hai nhà nghiên cứu này sau đó cho biết ông mất niềm tin rằng OpenAI sẽ "hành động có trách nhiệm khi phát triển và triển khai AGI".
OpenAI còn bị chê bai vì đưa ra thỏa thuận cấm nhân viên nghỉ việc chỉ trích công ty và điều khoản thu hồi cổ phần nếu vi phạm thỏa thuận. Tuy nhiên sau đó, Sam Alman đã tuyên bố sẽ giải phóng nhân viên khỏi những điều khoản đó.
Song song đó, OpenAI cũng đạt được thành công khi ký hợp đồng với các đối tác mới trong lĩnh vực truyền thông chính thống để cung cấp dữ liệu đào tạo và báo chí uy tín cho ChatGPT. Ngoài ra, các nhạc sĩ và nhà làm phim cũng bày tỏ sự quan tâm đến mô hình chuyển văn thành video Sora của OpenAI khi Hollywood đang nhắm đến AI để đơn giản hóa và giảm chi phí sản xuất phim, truyền hình.
Chúng ta hãy cùng chờ xem liệu ủy ban an toàn mới có thể xoa dịu một số nhà phê bình và các nhà quản lý cùng đối tác kinh doanh tiềm năng, trước khi OpenAI ra mắt bất cứ thứ gì họ đang phát triển.