Microsoft xây dựng hệ thống với hơn 10.000 chip Nvidia cho OpenAI để phát triển GPT-4

Nhịp đập khoa học - Ngày đăng : 21:30, 21/03/2023

Những công nghệ mới như generative AI dựa trên việc sử dụng hàng ngàn chip Nvidia cùng lúc để huấn luyện hệ thống AI trên kho dữ liệu khổng lồ.

Theo hãng tin Reuters, ông Hoàng Nhân Huân (Jensen Huang), Giám đốc điều hành Nvidia, hôm 21.3 dự kiến sẽ tiết lộ các chip và công nghệ trí tuệ nhân tạo (AI) mới tại hội nghị thường niên của công ty dành cho các nhà phát triển phần mềm.

Các nhà phân tích sẽ theo dõi Nvidia cung cấp chi tiết về cách công ty dự định mở rộng khả năng sức mạnh xử lý giống như từng sử dụng để phát triển các công nghệ bùng nổ như chatbot ChatGPT.

Tháng trước, ông Hoàng Nhân Huân nói với các nhà đầu tư rằng Nvidia sẽ ra mắt dịch vụ điện toán đám mây của riêng mình để cung cấp quyền truy cập dễ dàng hơn vào các hệ thống lớn được xây dựng bằng chip của họ.

Tại hội nghị hôm 21.3, ông Hoàng Nhân Huân sẽ thảo luận về "điều gì sẽ xảy ra tiếp theo" trong AI, công ty cho biết trên trang web của mình.

microsoft-xay-dung-he-thong-voi-hon-10.000-chip-nvidia-cho-openai-1.jpg
Logo của NVIDIA tại trụ sở công ty ở Santa Clar - Ảnh: Reuters

Có trụ sở tại thành phố Santa Clara (bang California, Mỹ), Nvidia đã thống trị lĩnh vực bán chip được sử dụng để phát triển các công nghệ generative AI.

Generative AI là loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn. Các ví dụ của generative AI bao gồm các mô hình ngôn ngữ tự động tạo văn bản, các hệ thống nhận dạng hình ảnh, video và âm thanh.

Những công nghệ mới này dựa trên việc sử dụng hàng ngàn chip Nvidia cùng lúc để huấn luyện hệ thống AI trên kho dữ liệu khổng lồ. Ví dụ, Microsoft đã xây dựng một hệ thống với hơn 10.000 chip Nvidia cho công ty khởi nghiệp OpenAI (Mỹ) để sử dụng trong việc phát triển các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT (Generative Pre-training Transformer).

GPT là một mô hình ngôn ngữ lớn (LLM) do nhà nghiên cứu AI có tên Alec Radford viết, sau đó được OpenAI phát triển và gần đây nâng cấp lên phiên bản GPT-4 mạnh mẽ.

Dù phải đối mặt với sự cạnh tranh trên thị trường chip AI từ AMD và một số công ty khởi nghiệp, Nvidia chiếm hơn 80% thị phần chip được sử dụng trong việc huấn luyện hệ thống AI.

Sự bùng nổ về AI đã giúp cổ phiếu Nvidia tăng 77% trong năm 2023, so với mức tăng 11,5% của Nasdaq Composite Index. Với giá trị vốn hóa thị trường là 640 tỉ USD, Nvidia đã phát triển trở nên có giá trị gấp khoảng 5 lần so với đối thủ lâu năm là Intel.

Nasdaq Composite Index là chỉ số thị trường chứng khoán Mỹ, được tính toán dựa trên giá trị của hơn 3.000 công ty niêm yết trên sàn giao dịch Nasdaq. Các công ty niêm yết trên sàn Nasdaq chủ yếu là về công nghệ, tài chính, y tế, và năng lượng tái tạo.

Nasdaq Composite Index là một trong những chỉ số chứng khoán quan trọng nhất ở Mỹ và thế giới cùng với S&P 500 và Dow Jones Industrial Average. Nó được sử dụng như đại diện cho trạng thái thị trường chứng khoán Mỹ và là một công cụ quan trọng để đánh giá sự phát triển của các công ty niêm yết trên sàn Nasdaq.

Đầu tháng 3, trang SCMP đưa tin tham vọng tạo chatbot giống ChatGPT của Trung Quốc bị đe dọa do thiếu chip AI tiên tiến.

Để đào tạo các mô hình ngôn ngữ lớn cần thiết cho các chatbot AI như ChatGPT, Trung Quốc có thể phải dựa vào số lượng thay vì chất lượng GPU (bộ xử lý đồ họa) sau khi bị Mỹ chặn mua các chip tiên tiến nhất, theo các doanh nhân và các kỹ sư trong nước.

Ví mô hình ngôn ngữ lớn là động cơ hơi nước của kỷ nguyên hiện đại, doanh nhân công nghệ AI trong hội đồng của Hiệp hội Trí tuệ Nhân tạo Trung Quốc nói ở cuộc hội thảo kín rằng Mỹ dẫn trước Trung Quốc về sức mạnh điện toán chủ yếu nhờ ưu thế về các GPU. GPU có lợi thế độc đáo trong học máy so với CPU (bộ xử lý trung tâm) do cách sử dụng tính toán đồng thời một cách hiệu quả.

Chúng ta không có GPU mạnh như A100, nhưng có thể tập hợp các GPU kém mạnh hơn để giành chiến thắng nhờ số lượng. Tôi nghĩ rằng sức mạnh tính toán vẫn là một yếu tố rất quan trọng, mang tính quyết định để giành chiến thắng trong cuộc cạnh tranh sau này”, doanh nhân này nhận xét. A100 là chip AI cho trung tâm dữ liệu của Nvidia mà Mỹ đã chặn xuất khẩu sang Trung Quốc.

Doanh nhân trên, giống như những người khác được trích dẫn trong câu chuyện này, yêu cầu không nêu tên vì tính nhạy cảm của chủ đề.

Kể từ khi OpenAI ra mắt ChatGPT vào tháng 11.2022, mức độ phổ biến đáng kinh ngạc của chatbot này dẫn đến cuộc chạy đua giữa các hãng công nghệ lớn để phát triển các phiên bản sản phẩm generative AI của riêng họ. Điều này đã mở rộng sang Trung Quốc, nơi công ty tìm kiếm internet Baidu, chủ sở hữu ứng dụng TikTok - ByteDance, gã khổng lồ về truyền thông xã hội và game Tencent Holdings và hãng khổng lồ thương mại điện tử Alibaba đều tham gia cuộc đua.

Tuy nhiên, các chuyên gia đã cảnh báo rằng Trung Quốc phải đối mặt với một số trở ngại lớn trong việc tạo ra chatbot tương tự như ChatGPT. Sản phẩm này có thể bị cản trở bởi sự kiểm duyệt hoặc các hạn chế ngày càng tăng với việc tiếp cận các chất bán dẫn tiên tiến. Khi nói đến chip được sử dụng để đào tạo AI, GPU là thành phần chính.

Theo TrendForce (công ty nghiên cứu thị trường và dự báo xu hướng công nghệ trụ sở tại Đài Loan), việc triển khai một số lượng lớn GPU hiệu suất cao giúp rút ngắn thời gian đào tạo generative AI, đòi hỏi phải sàng lọc lượng dữ liệu khổng lồ.

Trong trường hợp mô hình GPT cung cấp sức mạnh cho ChatGPT, số lượng tham số đào tạo tăng từ khoảng 120 triệu vào năm 2018 lên gần 180 tỉ vào năm 2020, TrendForce ước tính.

Số lượng GPU cần thiết để thương mại hóa mô hình GPT (hay ChatGPT) dự kiến sẽ trên 30.000”, TrendForce cho biết trong ghi chú, đưa ra ước tính giả định việc sử dụng A100 của Nivida.

CPU và GPU tiên tiến của các nhà phát triển hàng đầu như Intel, AMD và Nvidia được sử dụng rộng rãi trong số các nhà cung cấp dịch vụ đám mây AI của Trung Quốc.

Tại Hội nghị các nhà phát triển AI toàn cầu ở thành phố Thượng Hải cuối tháng 2, một số chuyên gia lo ngại tham vọng tạo chatbot AI tương tự ChatGPT của các hãng công nghệ lớn Trung Quốc có thể bị cản trở do thiếu chip cung cấp sức mạnh tính toán khổng lồ cần thiết để hỗ trợ các mô hình AI tinh vi.

Nếu Trung Quốc muốn tạo ChatGPT của riêng mình, chúng ta cần hàng chục ngàn chip Nvidia A100 để cung cấp sức mạnh tính toán cần thiết”, Zheng Weimin, giáo sư Đại học Thanh Hoa trực thuộc Học viện Kỹ thuật Trung Quốc, cho hay.

Theo Yang Fan, đồng sáng lập và Phó chủ tịch của SenseTime (công ty phần mềm AI hàng đầu Trung Quốc bị Mỹ trừng phạt thương mại kể từ năm 2019), giá chip A100 đã tăng 50% trong hai tuần qua do sự náo nhiệt xung quanh ChatGPT.

Trung Quốc vẫn chưa thể sản xuất chip và phần mềm có thể hỗ trợ ít nhất 50 đến 70% công suất tính toán cần thiết để chạy ChatGPT”, Yang Fan nhấn mạnh.

Sơn Vân