Jensen Huang (Giám đốc điều hành Nvidia) đã yêu cầu SK Hynix cung cấp HBM4, dòng chip nhớ băng thông cao thế hệ tiếp theo, sớm hơn 6 tháng. Chey Tae-won, Chủ tịch SK Group, cho biết thông tin này hôm 4.11.
Thế giới số

Đi trước Samsung, SK Hynix nhận yêu cầu từ Nvidia cung cấp chip HBM4 sớm hơn 6 tháng

Sơn Vân 04/11/2024 14:58

Jensen Huang (Giám đốc điều hành Nvidia) đã yêu cầu SK Hynix cung cấp HBM4, dòng chip nhớ băng thông cao thế hệ tiếp theo, sớm hơn 6 tháng. Chey Tae-won, Chủ tịch SK Group, cho biết thông tin này hôm 4.11.

Là hãng sản xuất chip nhớ lớn thứ hai thế giới sau Samsung Electronics song SK Hynix đang dẫn đầu về riêng chip nhớ băng thông cao (HBM).

Vào tháng 10.2023, SK Hynix thông báo dự kiến sẽ cung cấp HBM4 cho khách hàng trong nửa cuối năm 2025. Hôm 4.11, phát ngôn viên SK Hynix nói rằng lịch trình này nhanh hơn so với mục tiêu ban đầu nhưng không cung cấp thêm chi tiết.

Yêu cầu của Jensen Huang, về việc giao hàng nhanh hơn cho thấy nhu cầu lớn về chip có dung lượng cao và tiết kiệm năng lượng, được sử dụng trong các bộ xử lý đồ họa (GPU) của Nvidia để phát triển AI. Nvidia đang chiếm hơn 80% thị phần chip AI toàn cầu.

SK Hynix dẫn đầu cuộc đua toàn cầu để đáp ứng nhu cầu bùng nổ về chip HBM, loại chip hỗ trợ xử lý lượng dữ liệu lớn để huấn luyện AI và rất quan trọng với các chipset của Nvidia. Tuy nhiên, công ty Hàn Quốc đang phải đối mặt với sự cạnh tranh ngày càng gia tăng từ đối thủ đồng hương Samsung Electronics và Micron Technology (hãng chip nhớ hàng đầu Mỹ).

1. HBM (High Bandwidth Memory) là loại bộ nhớ máy tính có băng thông cực cao, được thiết kế để đáp ứng nhu cầu về hiệu năng của các ứng dụng đòi hỏi khả năng xử lý dữ liệu lớn như AI, điện toán hiệu năng cao (HPC), đồ họa...

Đặc điểm nổi bật của HBM

Băng thông cực cao: HBM cho phép truyền dữ liệu giữa bộ nhớ và bộ xử lý với tốc độ rất nhanh, gấp nhiều lần so với các loại RAM truyền thống như DDR hay GDDR.

Tiêu thụ điện năng thấp: Dù có băng thông cao nhưng HBM lại tiêu thụ ít điện năng hơn so với các loại RAM khác, giúp tăng hiệu suất và kéo dài tuổi thọ của thiết bị.

Kích thước nhỏ gọn: Nhờ công nghệ xếp chồng 3D, HBM cho phép nhiều lớp chip nhớ được chồng lên nhau, giúp giảm kích thước và tăng mật độ tích hợp.

Độ trễ thấp: Thời gian truy cập dữ liệu của HBM rất ngắn, giúp tăng tốc độ xử lý.

Vì sao HBM lại quan trọng?

AI: HBM cung cấp băng thông cần thiết để xử lý lượng lớn dữ liệu trong các mô hình học sâu, giúp tăng tốc độ đào tạo và suy luận của các hệ thống AI.

Điện toán hiệu năng cao (HPC): HBM được sử dụng trong các siêu máy tính để thực hiện các phép tính phức tạp, như mô phỏng khí hậu, phân tích dữ liệu khoa học.

Đồ họa: HBM giúp cải thiện hiệu suất của các card đồ họa, cho phép chơi game ở độ phân giải cao và khung hình mượt mà.

Ứng dụng của HBM

GPU: HBM được sử dụng rộng rãi trong các GPU của Nvidia và AMD.

Máy chủ: HBM được dùng trong các máy chủ để tăng tốc độ xử lý dữ liệu và tăng cường hiệu năng.

Siêu máy tính: HBM được sử dụng để xây dựng các siêu máy tính mạnh mẽ, phục vụ cho các ứng dụng khoa học.

2. Chipset là tập hợp các chip được thiết kế để làm việc cùng nhau nhằm quản lý luồng dữ liệu giữa các thành phần của một thiết bị điện tử, như bộ xử lý (CPU), bộ nhớ (RAM), thiết bị lưu trữ và các thiết bị ngoại vi khác. Chipset thường được tích hợp vào bo mạch chủ của máy tính, smartphone và nhiều thiết bị điện tử khác.

Trong một hệ thống máy tính, chipset đóng vai trò rất quan trọng trong việc điều khiển các thành phần, phần cứng giao tiếp với nhau, ảnh hưởng trực tiếp đến hiệu suất và khả năng mở rộng của thiết bị.

Chipset thường được chia thành hai phần chính:

- Northbridge: Quản lý giao tiếp giữa CPU, RAM, và bộ xử lý đồ họa (GPU).

- Southbridge: Quản lý giao tiếp giữa CPU với các thiết bị lưu trữ, âm thanh, cổng kết nối và các thiết bị ngoại vi khác.

Hiện nay, nhiều chức năng của Northbridge, Southbridge đã được tích hợp vào CPU. Chipset đã trở nên nhỏ gọn hơn, nhưng vẫn duy trì vai trò quan trọng trong việc điều khiển các hoạt động của hệ thống.

Dự kiến sẽ cung cấp loại HBM3E 12 lớp mới nhất cho một khách hàng không được tiết lộ trong năm 2024, SK Hynix cũng lên kế hoạch giao mẫu HBM3E 16 lớp tiên tiến hơn vào đầu 2025, Giám đốc điều hành Kwak Noh-Jung nói tại hội nghị SK AI SUMMIT 2024 ở Seoul (thủ đô Hàn Quốc).

di-truoc-samsung-sk-hynix-nhan-yeu-cau-tu-nvidia-cung-cap-chip-hbm4-som-hon-6-thang.jpg
Giám đốc điều hành Nvidia yêu cầu SK Hynix cung cấp HBM4 sớm hơn 6 tháng - Ảnh: Reuters

Tuần trước, Samsung Electronics cho biết đang đạt tiến triển trong thỏa thuận cung cấp chip HBM cho một khách hàng lớn không nêu tên sau khi gặp phải một số chậm trễ, đồng thời thảo luận với các khách hàng lớn để sản xuất sản phẩm HBM3E cải tiến vào nửa đầu năm 2025.

Ngoài ra, Samsung Electronics có kế hoạch sản xuất chip HBM4 thế hệ tiếp theo vào nửa cuối năm 2025.

Cuối tháng 10, Samsung Electronics cho biết sẽ tập trung sản xuất chip cao cấp để cải thiện lợi nhuận. Việc này diễn ra sau báo cáo lợi nhuận từ mảng chip của Samsung Electronics giảm 40% so với quý 2/2024, trong khi đối thủ TSMC (hãng sản xuất chip theo hợp đồng lớn nhất thế giới, ở Đài Loan) và SK Hynix đạt được lợi nhuận kỷ lục nhờ bùng nổ AI.

Hôm 31.10, Samsung Electronics (hãng sản xuất chip nhớ, smartphone và tivi lớn nhất thế giới) cảnh báo rằng tăng trưởng lợi nhuận trong quý 4/2024 sẽ bị hạn chế do sự cạnh tranh gia tăng trong phân khúc điện tử tiêu dùng vào mùa cao điểm cuối năm.

"Trong quý 4, dù nhu cầu chip nhớ cho di động và PC có thể gặp khó khăn nhưng sự phát triển trong lĩnh vực AI sẽ giữ cho nhu cầu ở mức cao. Dựa trên bối cảnh này, công ty sẽ tập trung vào việc thúc đẩy doanh số HBM và các sản phẩm có mật độ cao", Samsung Electronics cho biết trong thông báo kết quả kinh doanh, đề cập đến chip nhớ cao cấp được sử dụng để tạo ra chipset AI như của Nvidia.

Samsung Electronics đạt lợi nhuận hoạt động 9.200 tỉ won (6,66 tỉ USD) trong quý 3/2024, so với 2.400 tỉ won cùng kỳ năm trước và 10.400 tỉ won vào quý 2/2024. Kết quả này nhỉnh hơn một chút so với ước tính sơ bộ của Samsung Electronics là 9.100 tỉ won được đưa ra đầu tháng 10, nhưng vẫn dưới kỳ vọng của thị trường tại thời điểm đó.

"Samsung Electronics chưa thương mại hóa HBM hiệu quả như các đối thủ, nên hiệu suất quý 3 và triển vọng quý 4 đều không đáp ứng kỳ vọng của thị trường. Dự kiến sẽ mất một thời gian trước khi hoạt động kinh doanh đạt của công ty được như mong đợi", Baik Gil-hyun, nhà phân tích tại hãng chứng khoán Yuanta Securities, nhận định.

Đầu tháng 10, tập đoàn điện tử lớn nhất Hàn Quốc đã đưa ra lời xin lỗi hiếm hoi vì lợi nhuận đáng thất vọng, viện lý do " chậm trễ" trong việc bán các chip tiên tiến cho một khách hàng lớn không nêu tên (có thể là Nvidia) và nguồn cung chip truyền thống từ các đối thủ Trung Quốc gia tăng.

AI là điểm sáng hiếm hoi trong thị trường chip ảm đạm, nhưng Samsung Electronics đang gặp khó khăn trong việc cung cấp chip nhớ cao cấp được sử dụng trong các chipset AI của Nvidia. Điều này khiến Samsung Electronics bị ảnh hưởng nặng nề, bởi nhu cầu không mấy khả quan với các chip truyền thống dùng cho PC và smartphone.

Mảng chip của Samsung Electronics đã chuyển từ lỗ 3.800 tỉ trong quý 3/2023 sang đạt lợi nhuận 3.900 trong quý này, nhưng vẫn giảm so với mức 6.450 tỉ won ở quý 2/2024. Samsung Electronics cho biết lợi nhuận từ mảng chip bị ảnh hưởng bởi các chi phí một lần như việc cấp thưởng cho nhân viên và tác động từ biến động tỷ giá do đồng USD suy yếu.

Trước đó, SK Hynix đã công bố lợi nhuận hoạt động quý 3/2024 kỷ lục 7.000 tỉ won. TSMC cũng đạt kết quả tốt nhất trong giai đoạn này nhờ việc sản xuất chip AI cho Nvidia.

Samsung Electronics đang gặp khó khăn trong việc cạnh tranh với các đối thủ không chỉ trong mảng kinh doanh chip nhớ chủ lực mà còn trong mảng kinh doanh sản xuất chip logic cho khách hàng. Các nhà phân tích cho rằng mảng chip logic của Samsung Electronics đã chịu lỗ nặng trong quý 3/2024.

Công ty đã trì hoãn việc nhận các thiết bị sản xuất chip cao cấp từ ASML (Hà Lan) cho nhà máy sắp tới ở bang Texas (Mỹ) do chưa có khách hàng lớn nào cho dự án này, theo Reuters. ASML là hãng cung cấp thiết bị sản xuất chip số 1 thế giới.

Mảng thiết bị di động của Samsung Electronics cũng chứng kiến lợi nhuận hoạt động quý 3/2024 giảm xuống 2.800 tỉ won từ 3.300 tỉ won cùng kỳ năm trước.

Bài liên quan
CEO Nvidia: EU tụt hậu xa so với Mỹ và Trung Quốc về đầu tư AI
Liên minh châu Âu (EU) tụt hậu xa so với Mỹ và Trung Quốc về đầu tư vào trí tuệ nhân tạo (AI), Jensen Huang - Giám đốc điều hành Nvidia cho biết hôm 23.10.

(0) Bình luận
Nổi bật Một thế giới
Cần có cơ sở pháp lý điều chỉnh về trí tuệ nhân tạo
2 giờ trước Nhịp đập khoa học
Ủy ban Khoa học -Công nghệ - Môi trường (KH-CN-MT) thấy rằng Việt Nam cần phải có cơ sở pháp lý nhằm điều chỉnh về trí tuệ nhân tạo (AI) để phát triển thế mạnh, hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Đi trước Samsung, SK Hynix nhận yêu cầu từ Nvidia cung cấp chip HBM4 sớm hơn 6 tháng