Nvidia (Mỹ) vừa công bố chip và công nghệ mới sẽ thúc đẩy tốc độ tính toán của các thuật toán trí tuệ nhân tạo (AI) ngày càng phức tạp.
Qua đó, Nvidia đẩy mạnh cuộc đua với các nhà sản xuất chip đối thủ đang cạnh tranh để kinh doanh trung tâm dữ liệu béo bở.
Nvidia đã cung cấp thông tin chi tiết về chip đồ họa (GPU) mới sẽ là cốt lõi của cơ sở hạ tầng AI, phát hành chip H100 và chip xử lý mới có tên Grace CPU Superchip dựa trên công nghệ của hãng Arm (Anh). Đây là con chip dựa trên Arm đầu tiên của Nvidia được công bố kể từ khi thỏa thuận mua Arm tan vỡ vào tháng trước.
Nvidia cũng công bố siêu máy tính Eos mới, được cho là hệ thống xử lý AI nhanh nhất thế giới khi bắt đầu hoạt động vào cuối năm nay.
Nvidia đang kỳ vọng siêu máy tính Eos mới sẽ có hiệu suất tính toán AI khổng lồ 18,4 exaflop: Tốc độ này nhanh hơn gấp 4 lần so với xử lý AI của siêu máy tính Fugaku ở Nhật Bản.
Siêu máy tính Fugaku là hệ thống xử lý AI nhanh nhất thế giới hiện tại.
Siêu máy tính Eos mới dự kiến sẽ hoạt động như một "bản thiết kế cho cơ sở hạ tầng AI tiên tiến của Nvidia, cũng như các đối tác OEM và đám mây".
Tuy vậy, Vlad Galabov, người đứng đầu thực hành nghiên cứu đám mây và trung tâm dữ liệu tại công ty nghiên cứu Omdia (Anh), nói ông lo ngại về mức tiêu thụ điện năng của chip H100 và cho rằng nó có thể hạn chế sức hấp dẫn trên thị trường rộng lớn của bộ vi xử lý.
“Các trung tâm dữ liệu đang trở thành nhà máy AI - xử lý và tinh chỉnh hàng núi dữ liệu để tạo ra trí thông minh”, Giám đốc điều hành Nvidia - Jensen Huang cho biết tại hội nghị trực tuyến dành cho các nhà phát triển AI của hãng này, gọi chip H100 là "động cơ" của cơ sở hạ tầng AI.
Nvidia nói các công nghệ mới kết hợp với nhau sẽ giúp giảm thời gian tính toán từ vài tuần xuống vài ngày với một số công việc liên quan đến đào tạo các mô hình AI.
Các công ty đã và đang sử dụng AI cùng máy học cho vô số thứ, từ việc đưa ra các đề xuất cho video tiếp theo để xem trên TV và smartphone đến việc khám phá ra loại thuốc mới.
Bob O'Donnell, trưởng nhóm phân tích tại công ty TECHnalysis Research (Mỹ), cho biết: “Rõ ràng là Nvidia đang trở thành mối đe dọa lớn hơn với Intel và AMD trong thị trường trung tâm dữ liệu và điện toán đám mây”.
Intel là nhà sản xuất bộ vi xử lý lớn nhất cho các trung tâm dữ liệu, nhưng đã chứng kiến sự cạnh tranh để giành được không gian đang phát triển nhanh chóng vì lợi nhuận.
Colette Kress, Giám đốc tài chính Nvidia, cho biết với việc các chip mới thúc đẩy tính toán AI phát triển, cơ hội thị trường của công ty là khoảng 1.000 tỉ USD, từ trò chơi đến chip, hệ thống và các hoạt động kinh doanh khác.
Có phần mềm mã nguồn mở là động lực chính để các công ty sử dụng chip của mình, Nvidia đang tìm cách kiếm tiền nhiều hơn từ mảng kinh doanh phần mềm trong tương lai.
“Chúng tôi đã bán phần mềm chi doanh nghiệp và hôm nay con số này là vài trăm triệu USD. Chúng tôi tin rằng đây là cơ hội phát triển cho chúng tôi”, Colette Kress chia sẻ. Ông nói thêm rằng việc tiếp tục kinh doanh phần mềm sẽ giúp tỷ suất lợi nhuận gộp của Nvidia cải thiện vào thời điểm tình trạng thiếu hụt linh kiện chip và hạn chế về nguồn cung đã làm tăng chi phí.
Jensen Huang nói phần mềm cho thị trường ô tô sẽ là động lực chính trong tương lai. Ông nói: “Ô tô đang trên đường trở thành hoạt động kinh doanh trị giá hàng tỉ USD tiếp theo của chúng tôi”.
Nvidia đã bắt đầu xuất xưởng bộ vi xử lý Drive Orin cho ô tô tự lái trong tháng này. BYD (nhà sản xuất ô tô điện Trung Quốc) và Lucid Motors (hãng sản xuất ô tô điện hạng sang của Mỹ) sẽ sử dụng Nvidia Drive Orin cho các đội xe thế hệ tiếp theo của họ, Jensen Huang tiết lộ.
Danny Shapiro, Phó chủ tịch phụ trách ô tô của Nvidia, cho rằng hoạt động kinh doanh mảng ô tô sẽ có giá trị 11 tỉ USD trong 6 năm tới, tăng so với mức 8 tỉ USD mà hãng này dự báo vào năm ngoái.
Danny Shapiro nói tăng trưởng doanh thu dự kiến sẽ đến từ phần cứng và doanh thu định kỳ tăng lên từ phần mềm Nvidia.