Giám đốc AI của Microsoft ví quan hệ đối tác với OpenAI giống 'sự ganh đua giữa hai anh em'

Thế giới số - Ngày đăng : 16:22, 04/10/2024

Microsoft đang cố gắng để ít phụ thuộc hơn vào OpenAI bằng cách phát triển mô hình ngôn ngữ lớn của riêng mình, nhưng Mustafa Suleyman cho biết hai công ty có mối quan hệ cạnh tranh lành mạnh giống như hai anh em trong gia đình.
Thế giới số

Giám đốc AI của Microsoft ví quan hệ đối tác với OpenAI giống 'sự ganh đua giữa hai anh em'

Sơn Vân 04/10/2024 16:22

Microsoft đang cố gắng để ít phụ thuộc hơn vào OpenAI bằng cách phát triển mô hình ngôn ngữ lớn của riêng mình, nhưng Mustafa Suleyman cho biết hai công ty có mối quan hệ cạnh tranh lành mạnh giống như hai anh em trong gia đình.

Trong một tập gần đây của podcast On with Kara Swisher, Mustafa Suleyman (Giám đốc bộ phận AI của Microsoft) cho biết công ty có mối quan hệ tốt với OpenAI dù đang xây dựng các sản phẩm cạnh tranh.

"Chúng tôi là anh em. Đôi khi họ cãi vã, nhưng chủ yếu chúng tôi đều cùng một đội", Mustafa Suleyman nói.

On with Kara Swisher là podcast nổi tiếng, được dẫn dắt bởi nhà báo kỳ cựu Kara Swisher. Trong mỗi tập, cô sẽ trò chuyện với những nhân vật có tầm ảnh hưởng lớn trong các lĩnh vực như kinh doanh, công nghệ, truyền thông, chính trị và nhiều hơn nữa.

Microsoft đã phát triển mô hình AI nội bộ có tên MAI-1 trước khi trình OpenAI trình làng GPT-4o và o1. Thế nhưng, Mustafa Suleyman bác bỏ mọi ý kiến về sự mâu thuẫn giữa hai bên, nói rằng sự cạnh tranh là “một phần tự nhiên và lành mạnh của mọi việc”.

Microsoft đã hợp tác chặt chẽ với OpenAI kể từ năm 2019 khi đầu tư 1 tỉ USD vào "cha đẻ ChatGPT". Đây là động thái mà Mustafa Suleyman tin rằng sẽ đi vào "lịch sử Microsoft".

Mustafa Suleyman muốn nhấn mạnh rằng việc Microsoft đầu tư số tiền lớn vào OpenAI vào thời điểm đó là quyết định dũng cảm, vì công nghệ AI của OpenAI vẫn còn đang trong giai đoạn nghiên cứu và chưa có ứng dụng thực tế.

Microsoft vừa đầu tư hàng trăm triệu USD vào vòng gọi vốn mới nhất của OpenAI, sau khoảng 13 tỉ USD trước đó.

Theo Mustafa Suleyman, Microsoft đã thúc đẩy mối quan hệ sâu sắc giữa hai công ty dẫn đến sự hợp tác chặt chẽ "về mọi thứ, từ khía cạnh nghiên cứu đến cơ sở hạ tầng cốt lõi".

Satya Nadella, Giám đốc điều hành Microsoft, đã ủng hộ Sam Altman mạnh mẽ sau khi doanh nhân 39 tuổi người Mỹ bị hội đồng quản trị cũ của OpenAI sa thải vào ngày 17.11.2023. Thời điểm đó, Satya Nadella mời Sam Altman và Greg Brockman (Chủ tịch OpenAI) "lãnh đạo một nhóm nghiên cứu AI tiên tiến mới", hiện được gọi là Microsoft AI.

Thế nhưng vài ngày sau đó, Sam Altman và Greg Brockman nhanh chóng quay trở lại vai trò cũ tại OpenAI.

Hồi tháng 3, Satya Nadella bổ nhiệm Mustafa Suleyman (cựu Giám đốc điều hành công ty khởi nghiệp về Inflection AI) vào vị trí Giám đốc điều hành bộ phận Microsoft AI và thuê một số nhân viên từ Inflection AI.

Mustafa Suleyman cho biết mối quan hệ giữa Microsoft và OpenAI không phải là duy nhất, mà khá giống với các công ty khác trong ngành.

"Tôi nghĩ rằng một trong những điều mọi người không nhận ra là tất cả công ty thực sự có quan hệ đối tác sâu sắc với các hãng khác. Chúng tôi cũng có mối quan hệ sâu sắc với Amazon, tin hay không thì tùy bạn, trên nhiều mặt trận", Mustafa Suleyman tiết lộ.

giam-doc-ai-cua-microsoft-vi-quan-he-doi-tac-voi-openai-giong-su-ganh-dua-giua-hai-anh-em.jpg
Mustafa Suleyman nói Microsoft và OpenAI có mối quan hệ tốt đẹp ngay cả khi họ cạnh tranh ở một số cấp độ - Ảnh: Getty Images

Microsoft phát triển mô hình AI đủ mạnh để cạnh tranh với OpenAI và Google

Microsoft đang phát triển MAI-1, mô hình AI mới đủ lớn để cạnh tranh với các Gemini của Google và GPT của OpenAI, theo trang The Information. MAI-1 đang được giám sát bởi Mustafa Suleyman, đồng sáng lập Google DeepMind.

Mục đích chính xác của MAI-1 vẫn chưa được xác định và sẽ phụ thuộc vào hiệu suất hoạt động của nó.

MAI-1 sẽ "lớn hơn nhiều" so với các mô hình nguồn mở nhỏ hơn trước đây mà Microsoft đã đào tạo, nghĩa là sẽ gây tốn kém hơn, theo The Information.

Ngày 23.4 vừa qua, Microsoft đã trình làng Phi-3-mini, mô hình AI nhỏ gọn, tiết kiệm chi phí, có thể thực hiện các nhiệm vụ như tạo nội dung và bài đăng trên mạng xã hội trong khi sử dụng lượng dữ liệu nhỏ hơn đáng kể so với các mô hình thông thường.

Theo Microsoft, Phi-3-mini hoạt động tốt hơn các mô hình AI có kích thước gấp đôi nó về hiệu suất trên nhiều bài kiểm tra đánh giá kỹ năng ngôn ngữ, lập trình và toán học. Điều này biến Phi-3-mini thành lựa chọn hấp dẫn cho các công ty có nguồn lực hạn chế, vốn thường gặp khó khăn trong việc triển khai và vận hành các mô hình AI lớn.

Microsoft nói rằng doanh nghiệp có thể sử dụng Phi-3-mini để tóm tắt các điểm chính của tài liệu dài, trích xuất các thông tin có liên quan và xu hướng ngành từ các báo cáo nghiên cứu thị trường.

Phi-3-mini sẽ có sẵn ngay trên danh mục mô hình AI của nền tảng dịch vụ đám mây Azure, nền tảng mô hình học máy Hugging Face và Ollama (cấu trúc để chạy các mô hình AI trên máy tính cá nhân).

Microsoft đã dành riêng một cụm máy chủ lớn được trang bị các bộ xử lý đồ họa (GPU) Nvidia cùng lượng dữ liệu khổng lồ để cải thiện mô hình AI mới, theo báo cáo. MAI-1 sẽ có khoảng 500 tỉ tham số, trong khi Phi-3 mini có 3,8 tỉ tham số.

Microsoft đã đầu tư hàng tỉ USD vào OpenAI và triển khai công nghệ của công ty khởi nghiệp đứng sau ChatGPT trên toàn bộ bộ phần mềm năng suất của mình, giúp họ đi đầu trong cuộc đua AI tạo sinh.

Theo The Information, mô hình AI mới của Microsoft không được chuyển giao từ Inflection AI dù có thể dựa trên dữ liệu đào tạo của công ty khởi nghiệp này.

Giữa tháng 4, Microsoft đã đầu tư 1,5 tỉ USD vào G42 - công ty AI đặt trụ sở tại UAE. Gã khổng lồ phần mềm Mỹ từng hợp tác với công ty khởi nghiệp Mistral AI (Pháp) để đưa mô hình AI của họ trên Azure.

Microsoft đặt mục tiêu nội bộ là tích lũy 1,8 triệu GPU vào cuối năm 2024, theo tài liệu mà trang Insider nhìn thấy.

Gã khổng lồ công nghệ Mỹ đang cố gắng tạo ra mô hình AI nhanh hơn, tốt hơn và rẻ hơn, nhưng nỗ lực này chủ yếu phụ thuộc vào việc công ty mua chip, chủ yếu là GPU từ Nvidia. Tài liệu nội bộ gợi ý rằng Microsoft có kế hoạch tăng gấp ba số lượng GPU mà hãng đang có vào năm 2024.

Hợp tác với OpenAI, Microsoft đang dẫn đầu trong sự bùng nổ AI tạo sinh. Thế nhưng, duy trì vị trí hàng đầu trong lĩnh vực này là việc khó khăn và rất tốn kém.

Từ năm tài chính hiện tại đến năm tài chính 2027, Microsoft dự kiến sẽ chi khoảng 100 tỉ USD cho GPU và trung tâm dữ liệu, hai người quen thuộc với kế hoạch này nói với Insider.

Những gã khổng lồ công nghệ khác cũng đang xây dựng kho GPU khổng lồ. Đó là một trong những lý do giúp Nvidia tăng trưởng mạnh và hiện có vốn hóa thị trường hơn 3.010 tỉ USD. Nvidia hiện là nhà cung cấp GPU số 1 thế giới.

Ngày 12.9 vừa qua, OpenAI giới thiệu o1, mô hình ngôn ngữ lớn mới có khả năng suy luận giống con người. Theo OpenAI, o1 vượt trội hơn mô hình ngôn ngữ lớn khác trong các nhiệm vụ nặng về mặt lý luận ở lĩnh vực khoa học, lập trình và toán học. OpenAI tiết lộ o1 biết "cách suy nghĩ hiệu quả bằng cách sử dụng chuỗi suy nghĩ của mình" nhờ một kỹ thuật được gọi là học tăng cường.

Yang Zhilin, nhà sáng lập Moonshot AI - công ty khởi nghiệp AI hàng đầu Trung Quốc, ca ngợi o1 có một “cải tiến quan trọng” là hoàn thành các nhiệm vụ mà con người sẽ mất nhiều thời gian để suy nghĩ và thực hiện.

Yang Zhilin cho biết o1 đại diện cho sự thay đổi quan trọng vì các nhà phát triển mô hình ngôn ngữ lớn, khi đã hết dữ liệu tự nhiên để đào tạo mô hình, đang chuyển sang kỹ thuật học tăng cường để tái tạo quá trình suy nghĩ và từ đó tạo ra nhiều dữ liệu hơn.

“o1 dành nhiều thời gian hơn để suy nghĩ kỹ trước khi phản hồi, giống như cách một người sẽ làm”, OpenAI viết trong bài đăng trên blog.

"Thay vì trả lời một câu hỏi đơn giản, nó có thể dành 20 giây để suy nghĩ", Yang Zhilin nói về o1.

"Trong tương lai, bạn có thể thấy AI có khả năng thực hiện các nhiệm vụ kéo dài vài phút hoặc thậm chí vài giờ, chuyển đổi giữa các chế độ khác nhau với khả năng lý luận ngày càng mạnh mẽ. Tôi tin rằng đây là những xu hướng rất quan trọng trong sự phát triển của AI vào tương lai", nhà sáng lập Moonshot AI cho biết thêm.

Theo Roey Tzezana, các kỹ thuật chuỗi suy nghĩ như vậy, khi được thực hiện đúng cách, có thể tạo ra kết quả tốt mà không cần phải tăng đáng kể sức mạnh tính toán. Điều đó có thể hữu ích cho các công ty Trung Quốc không thể tiếp cận chip AI tiên tiến trong bối cảnh đối diện hạn chế xuất khẩu từ Mỹ.

"Nó sẽ giảm bớt một số khó khăn mà tình trạng thiếu sức mạnh tính toán sẽ gây ra cho Trung Quốc. Vì vậy, sẽ rất thú vị khi xem liệu sự thiếu hụt sức mạnh tính toán ở Trung Quốc có dẫn đến sự đổi mới tốt hơn trong lĩnh vực này hay không”, Roey Tzezana nói.

Trong bài đăng trên blog, OpenAI cho biết o1 đạt điểm 83% trong kỳ thi vòng loại Olympic Toán học Quốc tế, so với 13% của mô hình AI trước đó là GPT-4o.

Công ty cho biết o1 cải thiện hiệu suất với các câu hỏi lập trình cạnh tranh và vượt qua độ chính xác ở cấp độ tiến sĩ của con người trên thước đo những vấn đề khoa học.

"Trong các bài kiểm tra của chúng tôi, o1 đạt kết quả tương đương với những nghiên cứu sinh tiến sĩ khi giải quyết các bài toán thách thức trong vật lý, hóa học và sinh học. Chúng tôi cũng nhận thấy rằng nó vượt trội trong toán học và lập trình. Ở kỳ thi vòng loại Olympic Toán học Quốc tế, GPT-4o chỉ giải đúng 13% các bài toán, còn mô hình lý luận đạt 83%. Khả năng lập trình của o1 cũng được đánh giá trong các cuộc thi và đạt đến mức 89% ở những cuộc thi Codeforces", OpenAI viết trên blog.

Noam Brown, nhà nghiên cứu tập trung vào việc cải thiện khả năng lý luận trong các mô hình AI của OpenAI, tiết lộ o1 đạt được kết quả đó bằng cách sử dụng kỹ thuật “lý luận theo chuỗi tư duy”, gồm việc chia vấn đề phức tạp thành những bước logic nhỏ hơn.

Codeforces là nền tảng trực tuyến nổi tiếng, được thiết kế đặc biệt cho các lập trình viên muốn rèn luyện và nâng cao kỹ năng giải quyết vấn đề thông qua việc tham gia các cuộc thi lập trình. Codeforces cung cấp môi trường cạnh tranh lành mạnh, nơi các lập trình viên từ khắp nơi trên thế giới có thể so tài và học hỏi lẫn nhau.

Các nhà nghiên cứu lưu ý rằng hiệu suất của mô hình ngôn ngữ lớn trên những vấn đề phức tạp có xu hướng cải thiện khi phương pháp này được sử dụng như kỹ thuật nhắc nhở. OpenAI hiện đã tự động hóa khả năng này để các mô hình ngôn ngữ lớn có thể tự chia nhỏ các vấn đề mà không cần người dùng nhắc nhở.

"Chúng tôi đã đào tạo các mô hình này để dành nhiều thời gian hơn suy nghĩ về các vấn đề trước khi trả lời, giống một con người. Thông qua quá trình đào tạo, chúng học cách tinh chỉnh quá trình suy nghĩ của mình, thử các chiến lược khác nhau và nhận ra lỗi lầm", OpenAI cho hay.

Sơn Vân