Cổ phiếu Nvidia chuẩn bị tăng 10 phiên liên tiếp, dài nhất kể từ chuỗi tăng kỷ lục vào tháng 12.2016, sau khi nhà sản xuất chip có giá trị nhất thế giới cập nhật chip trí tuệ nhân tạo (AI) của mình.
Theo dữ liệu do trang Bloomberg tổng hợp, cổ phiếu Nvidia đã tăng khoảng 20% trong suốt đợt tăng giá mới nhất này, thêm khoảng 200 tỉ USD vốn hóa thị trường cho công ty có trụ sở tại thành phố Santa Clara (bang California, Mỹ). Điều này diễn ra trong khi các đối thủ vội vã tìm kiếm các phương án để thách thức sự thống trị của Nvidia trong lĩnh vực AI.
Cổ phiếu Nvidia đã tăng hơn 230% trong năm nay tính đến thời điểm chốt phiên hôm 13.11, khiến nó trở thành cái tên có hiệu suất tốt nhất trên cả hai chỉ số Nasdaq 100 và S&P 500 khi đà tăng của thị trường được kích thích bởi sự phấn khích do AI tạo ra.
Sự gia tăng mới nhất xảy ra khi cổ phiếu công nghệ phục hồi trong bối cảnh hi vọng rằng lãi suất của Cục Dự trữ Liên bang Mỹ (Fed) đã đạt đỉnh.
Nvidia nâng cấp chip AI hàng đầu
Nvidia hôm 14.11 đã bổ sung các tính năng mới cho chip AI hàng đầu của mình, cho biết sản phẩm mới H200 được triển khai vào năm sau với Amazon, Google và Oracle.
H200 sẽ vượt qua H100, GPU (bộ xử lý đồ họa) hàng đầu hiện nay của Nvidia. Nâng cấp chính ở H200 là tăng bộ nhớ băng thông cao (HBM), một trong những thành phần đắt nhất của chip quyết định khả năng xử lý dữ liệu nhanh chóng.
Nvidia cho biết H200 sẽ có khả năng sử dụng HBM3e, xử lý tốt hơn các tập dữ liệu lớn cần thiết để phát triển và triển khai AI.
Nvidia thống trị thị trường chip AI và đóng vai trò quan trọng cho ChatGPT của OpenAI cũng như nhiều dịch vụ generative AI phản hồi các truy vấn bằng văn bản giống con người. Việc HBM cao hơn và kết nối nhanh hơn với các bộ phận xử lý của chip đồng nghĩa các dịch vụ generative AI như vậy sẽ có thể đưa ra câu trả lời nhanh hơn.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
H200 có HBM 141 GB, tăng từ 80 GB ở H100 trước đó. Nvidia không tiết lộ nhà cung cấp bộ nhớ trên chip H200, nhưng Micron Technology (Mỹ) tiết lộ vào tháng 9 rằng đang nỗ lực để trở thành nhà cung cấp cho Nvidia.
Nvidia cũng mua bộ nhớ từ SK Hynix (Hàn Quốc). Hãng chip nhớ số 2 thế giới này cho biết vào tháng trước rằng chip AI đang giúp vực dậy doanh số bán hàng của họ.
Hôm 14.11, Nvidia nói Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên sử dụng chip H200, bên cạnh các nhà cung cấp đám mây chuyên sâu về AI như CoreWeave, Lambda và Vultr.
Nhà phân tích Chris Caso của hãng Wolfe Research đã viết trong một ghi chú: “Nvidia trước đây chưa từng làm mới các GPU trung tâm dữ liệu. Vì vậy, điều này thể hiện thêm bằng chứng về việc công ty đang tăng tốc ra sản phẩm để đáp ứng các yêu cầu về hiệu suất và tăng trưởng của thị trường AI, mở rộng lợi thế cạnh tranh của họ”.
Nhà phân tích Kunjan Sobhani của Bloomberg Intelligence cho biết: “Tốc độ ra mắt sản phẩm H200 được đẩy nhanh của công ty vào giữa năm 2024 có thể giúp công ty bảo vệ thị trường của mình. H200 đi kèm HBM có thể là GPU hiệu suất cao nhất trên thị trường, nâng cao khả năng cạnh tranh”.
Nvidia chịu áp lực khi các quy định mới từ Mỹ vào tháng 10 cấm bán chip AI tiên tiến của họ cho Trung Quốc. Công ty dự kiến sẽ báo cáo kết quả kinh doanh quý 3/2023 vào ngày 21.11.
Samsung hưởng lợi khi được cung cấp chip nhớ tiên tiến cho Nvidia
Samsung Electronics, tập đoàn điện tử lớn nhất Hàn Quốc, đã giành được quyền cung cấp chip nhớ tiên tiến cho Nvidia.
Samsung Electronics sẽ bắt đầu cung cấp HBM3, thế hệ bộ nhớ mới được tối ưu hóa để hoạt động với các bộ tăng tốc AI, từ quý 4/2023. Các nhà phân tích của công ty Citigroup, bao gồm cả Peter Lee, tiết lộ thông tin này trong một báo cáo.
SK Hynix, đối thủ của Samsung Electronics, trước đó vẫn là nhà cung cấp HBM duy nhất của Nvidia cho máy gia tốc AI.
Peter Lee và Josh Yang của Citigroup viết trong một báo cáo rằng: “Sau khi gia nhập thành công vào chuỗi cung ứng HBM của Nvidia, chúng tôi dự đoán Samsung sẽ nổi lên như một trong những nhà cung cấp chính HBM3. Chúng tôi thấy Samsung là hãng hưởng lợi từ sự tăng trưởng lâu dài của thị trường điện toán AI và bộ nhớ”. Citigroup nâng mục tiêu giá cổ phiếu Samsung Electronics trong tương lai từ 110.000 won lên 120.000 won.
Samsung Electronics đã đạt được thỏa thuận cung cấp HBM3 cho Nvidia khi chip nhớ của họ vượt qua bài kiểm tra chất lượng cuối cùng do công ty Mỹ thực hiện, trang Korea Economic Daily đưa tin, trích dẫn các nguồn tin giấu tên trong ngành. Báo cáo cho biết Samsung Electronics bắt đầu cung cấp chip nhớ quan trọng này vào đầu tháng 10.
Nvidia sẽ được hưởng lợi từ việc có Samsung Electronics làm nhà cung cấp HBM3 bổ sung. Nvidia có thể thấy chi phí hoặc hiệu suất tốt hơn và nguồn cung ổn định hơn khi mở rộng các lựa chọn của mình sang cả Samsung Electronics.
SK Hynix là công ty hàng đầu về HBM3 với 50% thị phần toàn cầu, được các chuyên gia coi là lý tưởng cho các dịch vụ AI ngốn băng thông.
SK Hynix đã phát triển HBM3 vào tháng 10.2021 và sản xuất hàng loạt hồi tháng 6.2022. Công ty Hàn Quốc lưu ý trong tài liệu quảng cáo của mình rằng công nghệ HBM là “điều kiện tiên quyết cho cấp độ 4 và 5 về tự động hóa lái xe trên ô tô tự hành”.
Theo báo cáo của công ty tư vấn công nghệ TrendForce (Đài Loan), nhu cầu về kiến trúc chip HBM sẽ tăng gần 60% vào năm 2023 vì chúng là giải pháp được ưa chuộng để giải quyết các hạn chế về tốc độ truyền bộ nhớ do giới hạn băng thông.
Cuối tháng 8, SK Hynix công bố đã phát triển thành công HBM3E, thế hệ DRAM cao cấp tiếp theo dành riêng cho các ứng dụng AI và đang cung cấp mẫu cho một khách hàng để đánh giá hiệu suất sản phẩm. Việc sản xuất hàng loạt HBM3E dự kiến diễn ra vào nửa đầu năm 2024, với các khách hàng là hãng chip Mỹ như AMD và Nvidia đã sẵn sàng để thử nghiệm sản phẩm mới.
Theo TrendForce, Nvidia đã thiết lập một tiêu chuẩn công nghiệp mới bằng cách sử dụng chip HBM để tăng tốc độ truyền dữ liệu giữa các GPU và các bộ nhớ xếp chồng lên nhau. Theo Nvidia, H100 được trang bị HBM3, cung cấp băng thông bộ nhớ 3 terabyte mỗi giây.
HBM xếp chồng các chip nhớ theo chiều dọc, giống như các tầng trong một ngôi nhà cao chọc trời, giúp rút ngắn khoảng cách mà thông tin chuyển qua. Những tháp chip nhớ này được kết nối với CPU hoặc GPU thông qua một kết nối siêu tốc gọi là interposer.
Ngoài SK Hynix và Samsung Electronics, công ty hàng đầu về HBM khác là Micron Technology (Mỹ).