Nvidia, gã khổng lồ chip AI của Mỹ, hôm 22.11 cho biết đang phát triển các sản phẩm mới cho khách hàng ở Trung Quốc. Tuy nhiên, quá trình này sẽ mất thời gian vì cần phải tạo ra chip đáp ứng yêu cầu của những khách hàng đó mà không vi phạm quy tắc xuất khẩu của Mỹ.
Colette Kress, Giám đốc tài chính của Nvidia, cho biết: “Đó là một quá trình quan trọng để thiết kế và phát triển những sản phẩm mới này”. Bà nói thêm rằng công ty sẽ tiếp tục tập trung vào việc “tìm kiếm sự cân bằng phù hợp” cho khách hàng của mình tại Trung Quốc trước các hạn chế về chip từ Mỹ.
Nvidia hồi đầu năm nay đã gia nhập CLB ưu tú những công ty Mỹ có giá trị thị trường hơn 1.000 tỉ USD, nhờ nhu cầu về chất bán dẫn hỗ trợ hệ thống trí tuệ nhân tạo (AI) tăng cao.
Theo báo cáo tài chính mới nhất, doanh thu quý 3/2023 của Nvidia đã tăng 206% so với cùng kỳ năm ngoái lên 18,12 tỉ USD. Việc tăng tốc áp dụng AI trong các ngành công nghiệp trên toàn thế giới đã đẩy doanh số trong lĩnh vực trung tâm dữ liệu của Nvidia tăng 279% lên 14,51 tỉ USD.
Tuy nhiên, Nvidia đang đối diện với những thách thức tại thị trường Trung Quốc, sau khi chính phủ Mỹ vào ngày 17.10 thắt chặt các quy định nhằm cản trở sự phát triển AI của Bắc Kinh bằng cách ngăn tiếp cận chip trung tâm dữ liệu Nvidia.
Nvidia hiện dự kiến doanh số bán hàng của mình sang Trung Quốc và các điểm đến khác bị Mỹ hạn chế (thường đóng góp khoảng 20 đến 25% doanh thu trung tâm dữ liệu của họ nhiều quý vừa qua) sẽ giảm đáng kể trong quý 4/2023.
Công ty có trụ sở tại thành phố Santa Clara (bang California, Mỹ) đã phát triển ba bộ xử lý đồ họa (GPU) trung tâm dữ liệu mới cho khách hàng ở Trung Quốc sau khi hai phiên bản trước đó là H800 và A800 bị Mỹ cấm. Tuy nhiên, tờ SCMP đưa tin rằng phải đến cuối tháng 12 thì Nvidia mới cung cấp lô hàng GPU mới đầu tiên cho Trung Quốc.
Trong khi đó, Nvidia cũng đang làm việc với một số khách hàng ở Trung Quốc và Trung Đông để xin giấy phép đặc biệt từ chính phủ Mỹ để bán sản phẩm của công ty, theo Colette Kress.
Các hãng công nghệ lớn Trung Quốc, gồm cả Alibaba (tập đoàn thương mại điện tử khổng lồ) và Tencent Holdings (gã khổng lồ truyền thông xã hội và game), đều cảnh báo các nhà đầu tư về tác động của việc tăng cường kiểm soát xuất khẩu từ Mỹ với hoạt động kinh doanh điện toán đám mây của họ.
Các hạn chế được Mỹ thắt chặt, nhắm vào Trung Quốc và các quốc gia đáng lo ngại khác, đã đặt ra tiêu chuẩn cao hơn cho việc xuất khẩu chip tiên tiến và một số thiết bị sản xuất chip nhất định.
Lệnh cấm Nvidia xuất khẩu các chip AI sang Trung Quốc có hiệu lực vào ngày 23.10, sớm hơn gần một tháng so với ngày có hiệu lực là 17.11 mà Bộ Thương mại Mỹ tuyên bố ban đầu, theo hồ sơ chứng khoán của Nvidia hôm 21.11.
Theo báo cáo thường niên, Trung Quốc (gồm cả Hồng Kông) là thị trường lớn thứ ba của Nvidia sau Mỹ và Đài Loan trong năm tài chính vừa qua. Thị trường Trung Quốc chiếm 21,5% trong tổng doanh thu 26,9 tỉ USD của Nvidia năm tài chính vừa qua, giảm từ mức 26% của năm trước.
Bất chấp những bất ổn ở thị trường Trung Quốc, sự bùng nổ AI toàn cầu do ChatGPT kích hoạt một năm trước vẫn tiếp tục thúc đẩy doanh số bán chip trung tâm dữ liệu của Nvidia, lần đầu tiên vượt qua doanh thu thị trường game của công ty trong năm tài chính vừa qua.
Đợt tăng giá cổ phiếu thần tốc vào đầu năm nay đưa Nvidia trở thành công ty chip ngàn tỉ USD đầu tiên. Thế nhưng, cổ phiếu của Nvidia đã giảm hơn 12% trong khoảng thời gian từ tháng 8 đến tháng 10, cho thấy các nhà đầu tư khó tính hơn khi mối lo ngại về Trung Quốc ngày càng gia tăng.
Trước khi Mỹ áp đặt các biện pháp hạn chế xuất khẩu mới nhất đến Trung Quốc, nhu cầu về chip H800, phiên bản chậm hơn chip AI hàng đầu của Nvidia, đã vượt xa các đối thủ vì vẫn tốt hơn các lựa chọn thay thế.
Về 3 loại chip mới mà Nvidia đang thiết kế cho thị trường Trung Quốc, nhà phân tích Stacy Rasgon của hãng Bernstein nhận xét: “Dù các giải pháp trước đây chỉ yêu cầu những thay đổi nhỏ về băng thông bộ nhớ của các bộ phận, nhưng lần này, bản chất của các biện pháp kiểm soát từ Mỹ buộc hiệu suất tổng thể giảm mạnh. Tuy nhiên, các chip Nvidia có thể vẫn hấp dẫn với khách hàng Trung Quốc, đồng thời dễ chấp nhận hơn với các nhà quản lý Mỹ”.
Hôm 14.11, Nvidia đã giới thiệu một loại chip AI hàng đầu mới có tên H200, đi kèm với bộ nhớ băng thông cao hơn và có thể giúp hãng duy trì vị trí dẫn đầu, bất kể chip MI300 sắp ra mắt của AMD. Nvidia cho biết H200 được triển khai vào năm sau với Amazon, Google và Oracle.
H200 sẽ vượt qua H100, GPU hàng đầu hiện nay của Nvidia. Nâng cấp chính ở H200 là tăng bộ nhớ băng thông cao (HBM), một trong những thành phần đắt nhất của chip quyết định khả năng xử lý dữ liệu nhanh chóng.
Theo Nvidia, sự ra đời của H200 sẽ tạo ra những bước nhảy vọt về hiệu suất, trong đó hãng nhấn mạnh đến khả năng suy luận của các mô hình AI dữ liệu lớn. Thử nghiệm với mô hình ngôn ngữ lớn Llama 2 của Meta Platforms với 70 tỉ tham số, H200 mang đến hiệu suất gần gấp đôi so với H100.
Nvidia cho biết H200 sẽ có khả năng sử dụng HBM3e, xử lý tốt hơn các tập dữ liệu lớn cần thiết để phát triển và triển khai AI.
Nvidia thống trị thị trường chip AI và đóng vai trò quan trọng cho ChatGPT của OpenAI cũng như nhiều dịch vụ generative AI phản hồi các truy vấn bằng văn bản giống con người. Việc HBM cao hơn và kết nối nhanh hơn với các bộ phận xử lý của chip đồng nghĩa các dịch vụ generative AI (AI tạo sinh) như vậy sẽ có thể đưa ra câu trả lời nhanh hơn.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
H200 có HBM 141 GB, tăng từ 80 GB ở H100 trước đó. Nvidia không tiết lộ nhà cung cấp bộ nhớ trên chip H200, nhưng Micron Technology (Mỹ) nói vào tháng 9 rằng đang nỗ lực để trở thành nhà cung cấp cho Nvidia.
Nvidia cũng mua bộ nhớ từ Samsung Electronics và SK Hynix (Hàn Quốc). SK Hynix, hãng chip nhớ số 2 thế giới, cho biết vào tháng trước rằng chip AI đang giúp vực dậy doanh số bán hàng của họ.
Nhà phân tích Chris Caso của hãng Wolfe Research viết trong một ghi chú: “Nvidia trước đây chưa từng làm mới các GPU trung tâm dữ liệu. Vì vậy, điều này thể hiện thêm bằng chứng về việc công ty đang tăng tốc ra sản phẩm để đáp ứng các yêu cầu về hiệu suất và tăng trưởng của thị trường AI, mở rộng lợi thế cạnh tranh của họ”.
“Tốc độ ra mắt sản phẩm H200 được đẩy nhanh của công ty vào giữa năm 2024 có thể giúp công ty bảo vệ thị trường của mình. H200 đi kèm HBM có thể là GPU hiệu suất cao nhất trên thị trường, nâng cao khả năng cạnh tranh”, nhà phân tích Kunjan Sobhani của Bloomberg Intelligence nói.
Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên được cung cấp quyền truy cập vào H200, bên cạnh các nhà cung cấp đám mây AI đặc biệt như CoreWeave, Lambda và Vultr.
Các nhà phân tích của hãng Morningstar nhận định: “Có thể sự tăng trưởng mạnh mẽ của Nvidia sẽ khiến doanh thu từ Trung Quốc trở nên ít quan trọng hơn theo thời gian”.