Công ty phân tích CCS Insight dự đoán các công ty sẽ gặp muôn vàn khó khăn để triển khai generative AI vào năm 2024. Dự đoán của CCS Insight được đưa ra trong bối cảnh lo ngại về tình trạng thiếu chip AI toàn cầu.
Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
CCS Insight, công ty phân tích công nghệ có trụ sở tại London (thủ đô Anh), cho rằng những thách thức thực sự về chi phí, rủi ro và độ phức tạp trong AI có thể sớm làm lu mờ sự cường điệu hiện tại về công nghệ này vào năm 2024, trang CNBC đưa tin.
Ben Wood, nhà phân tích chính tại CCS Insight, nói với đài CNBC: “Sự cường điệu xung quanh AI thế hệ 2023 quá lớn đến mức chúng tôi cho rằng nó đã được quảng cáo hóa quá mức và có rất nhiều trở ngại cần phải vượt qua để đưa nó ra thị trường. Chỉ riêng chi phí triển khai và duy trì generative AI là rất lớn”.
Ông nói thêm rằng, dù các công ty lớn như Google và Meta Platforms có thể gánh những chi phí này nhưng nó sẽ quá đắt với nhiều tổ chức.
AI dựa vào chip để hoạt động và dự đoán của CCS Insight được đưa ra trong bối cảnh lo ngại về tình trạng thiếu chip AI toàn cầu.
Tầm quan trọng của các chip này đã thậm chí đã gây ra cuộc đua toàn cầu để giành được các chip Nvidia giữa những gã khổng lồ trong ngành, từ Elon Musk đến các đại gia công nghệ Trung Quốc.
Để đáp ứng nhu cầu tăng vọt, Nvidia (nhà sản xuất chip có giá trị lớn nhất thế giới) đã công bố vào tháng 8 rằng có kế hoạch tăng gấp ba lần sản lượng bộ xử lý đồ họa (GPU) H100 trị giá 40.000 USD vào năm tới.
OpenAI (nhà phát triển ChatGPT) hiện khám phá kế hoạch sản xuất chip riêng để giảm phụ thuộc Nvidia và Microsoft, Reuters đưa tin, trích dẫn các cuộc thảo luận nội bộ gần đây tại công ty.
Ít nhất là từ năm ngoái, OpenAI đã thảo luận về nhiều lựa chọn khác nhau để giải quyết tình trạng thiếu chip AI đắt tiền mà công ty dựa vào, theo những người quen thuộc với vấn đề này.
Các lựa chọn bao gồm xây dựng chip AI của riêng mình, hợp tác chặt chẽ hơn với các nhà sản xuất chip khác, gồm cả Nvidia, và cũng đa dạng hóa các nhà cung cấp ngoài Nvidia.
Sam Altman, Giám đốc điều hành OpenAI, đã coi việc mua thêm chip AI là ưu tiên hàng đầu của công ty. Ông đã công khai phàn nàn về sự khan hiếm của các GPU, một thị trường do Nvidia thống trị. Nvidia kiểm soát hơn 80% thị phần toàn cầu về chip phù hợp nhất để chạy các ứng dụng AI.
Nỗ lực có được nhiều chip hơn gắn liền với hai mối lo ngại lớn mà Sam Altman đã xác định: Sự thiếu hụt bộ xử lý tiên tiến cung cấp sức mạnh cho phần mềm của OpenAI; chi phí “choáng ngợp” liên quan đến việc vận hành phần cứng cần thiết để hỗ trợ các dự án và sản phẩm của họ.
Kể từ năm 2020, OpenAI đã phát triển các công nghệ generative AI trên một siêu máy tính khổng lồ do Microsoft (nhà tài trợ lớn nhất của hãng) chế tạo, sử dụng 10.000 GPU của Nvidia.
Việc chạy ChatGPT rất tốn kém với OpenAI. Theo phân tích từ chuyên gia Stacy Rasgon của ngân hàng Bernstein, mỗi truy vấn tốn khoảng 4 xu. Nếu các truy vấn ChatGPT tăng lên bằng 1/10 quy mô tìm kiếm của Google, ban đầu OpenAI sẽ cần số GPU trị giá khoảng 48,1 tỉ USD và số chip trị giá khoảng 16 tỉ USD mỗi năm để duy trì hoạt động.
Nỗ lực phát triển chip AI của riêng mình sẽ đưa OpenAI vào một nhóm nhỏ các hãng công nghệ lớn như Google và Amazon đang tìm cách cố gắng kiểm soát quá trình thiết kế các chip quan trọng với hoạt động kinh doanh của họ.
Chưa rõ liệu OpenAI có tiếp tục kế hoạch xây dựng chip tùy chỉnh hay không. Theo các chuyên gia kỳ cựu trong ngành, làm như vậy sẽ là sáng kiến chiến lược lớn và một khoản đầu tư lớn với chi phí có thể lên tới hàng trăm triệu USD mỗi năm. Ngay cả khi cam kết tập trung tài nguyên cho nhiệm vụ này thì OpenAI cũng không đảm bảo được sự thành công.
Việc mua lại một công ty chip có thể đẩy nhanh quá trình xây dựng chip riêng của OpenAI, giống Amazon thông qua việc mua lại Annapurna Labs vào năm 2015.
Theo một trong những người quen thuộc với kế hoạch của OpenAI, công ty đã xem xét đến mức độ thực hiện công việc kiểm tra thông tin về một mục tiêu có thể mua lại. Chưa rõ được danh tính của công ty mà OpenAI nhắm đến.
Ngay cả khi OpenAI tiến hành các kế hoạch về chip tùy chỉnh, gồm cả việc mua lại, thì nỗ lực này có thể sẽ mất vài năm. Trong thời gian chờ đợi, công ty vẫn phải phụ thuộc vào các nhà cung cấp chip thương mại như Nvidia và Advanced Micro Devices (AMD).
Một số hãng công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng kết quả vẫn còn hạn chế. Theo báo cáo của Reuters, nỗ lực sản xuất chip tùy chỉnh của Meta Platforms đã gặp phải nhiều vấn đề, khiến công ty phải loại bỏ một số chip AI của mình. Chủ sở hữu Facebook đang nghiên cứu một chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.
Microsoft dự kiến sẽ giới thiệu chip trí tuệ nhân tạo (AI) đầu tiên của mình có tên mã Athena vào tháng 11 tới, theo The Information. Động thái này từ Microsoft được coi là nỗ lực nhằm giảm sự phụ thuộc vào GPU của Nvidia, vốn đang có nhu cầu cao và đang bị thiếu hụt nguồn cung.
Athena được thiết kế cho máy chủ trung tâm dữ liệu. Dự kiến Athena sẽ cạnh tranh với GPU H100 hàng đầu của Nvidia, đang được Microsoft và các nhà cung cấp đám mây khác sử dụng để cung cấp sức mạnh cho các mô hình ngôn ngữ lớn và các ứng dụng AI khác.
Chip này dự kiến sẽ được ra mắt tại hội nghị Ignite của Microsoft dự kiến diễn ra từ ngày 14 - 17.11.
Trong nỗ lực giảm chi phí chạy các mô hình generative AI, Microsoft đã phát triển Athena từ năm 2019. Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Các lãnh đạo Microsoft nhận ra rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình.
Ngoài ra, Microsoft được cho đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên GPU Nvidia) và quyết định xây dựng một chip ít tốn kém hơn. Hơn 300 nhân viên Microsoft làm việc trên chip này.
Nhu cầu về chip AI đang ngày càng tăng, đặc biệt mô hình ngôn ngữ lớn đòi hỏi nhiều sức mạnh tính toán để đào tạo và hoạt động, đẩy giá sản phẩm lên cao.
Việc rất nhiều người trên thế giới sử dụng ChatGPT có thể làm OpenAI tiêu tốn hơn 700.000 USD mỗi ngày do cơ sở hạ tầng công nghệ đắt tiền mà chatbot AI này chạy trên đó, theo Dylan Patel, chuyên gia phân tích tại công ty nghiên cứu bán dẫn SemiAnalysis. Lý do vì ChatGPT yêu cầu sức mạnh tính toán khổng lồ để phản hồi yêu cầu của người dùng.
"Hầu hết chi phí này dựa trên các máy chủ đắt tiền mà OpenAI cần", Dylan Patel nói với trang The Information.
Dylan Patel cho biết việc OpenAI vận hành ChatGPT bây giờ thậm chí còn tốn kém hơn, vì ước tính ban đầu của ông dựa trên mô hình GPT-3.
GPT-4, mô hình mới nhất của OpenAI, thậm chí còn hao tốn tiền bạc hơn để chạy, Dylan Patel nói.
Dylan Patel và Afzal Ahmad, nhà phân tích khác tại SemiAnalysis, cho biết: “Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Song, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào. Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần".