OpenAI, nhà phát triển ChatGPT, đang khám phá việc sản xuất chip trí tuệ nhân tạo (AI) của riêng mình và tiến xa đến việc đánh giá mục tiêu mua lại tiềm năng, theo những người quen thuộc với kế hoạch của công ty.

OpenAI xem xét tạo chip AI riêng để giảm phụ thuộc Nvidia và Microsoft

Sơn Vân | 06/10/2023, 10:50

OpenAI, nhà phát triển ChatGPT, đang khám phá việc sản xuất chip trí tuệ nhân tạo (AI) của riêng mình và tiến xa đến việc đánh giá mục tiêu mua lại tiềm năng, theo những người quen thuộc với kế hoạch của công ty.

Ít nhất là từ năm ngoái, OpenAI đã thảo luận về nhiều lựa chọn khác nhau để giải quyết tình trạng thiếu chip AI đắt tiền mà công ty dựa vào, theo những người quen thuộc với vấn đề này.

Các lựa chọn bao gồm xây dựng chip AI của riêng mình, hợp tác chặt chẽ hơn với các nhà sản xuất chip khác, gồm cả Nvidia, và cũng đa dạng hóa các nhà cung cấp ngoài Nvidia.

OpenAI từ chối bình luận về thông tin trên.

Sam Altman, Giám đốc điều hành OpenAI, đã coi việc mua thêm chip AI là ưu tiên hàng đầu của công ty. Ông đã công khai phàn nàn về sự khan hiếm của các bộ xử lý đồ họa (GPU), một thị trường do Nvidia thống trị. Nvidia kiểm soát hơn 80% thị phần toàn cầu về chip phù hợp nhất để chạy các ứng dụng AI.

Nỗ lực có được nhiều chip hơn gắn liền với hai mối lo ngại lớn mà Sam Altman đã xác định: Sự thiếu hụt bộ xử lý tiên tiến cung cấp sức mạnh cho phần mềm của OpenAI; chi phí “choáng ngợp” liên quan đến việc vận hành phần cứng cần thiết để hỗ trợ các dự án và sản phẩm của họ.

Kể từ năm 2020, OpenAI đã phát triển các công nghệ generative AI trên một siêu máy tính khổng lồ do Microsoft (nhà tài trợ lớn nhất của hãng) chế tạo, sử dụng 10.000 GPU của Nvidia.

Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Việc chạy ChatGPT rất tốn kém với OpenAI. Theo phân tích từ chuyên gia Stacy Rasgon của ngân hàng Bernstein, mỗi truy vấn tốn khoảng 4 xu. Nếu các truy vấn ChatGPT tăng lên bằng 1/10 quy mô tìm kiếm của Google, ban đầu OpenAI sẽ cần số GPU trị giá khoảng 48,1 tỉ USD và số chip trị giá khoảng 16 tỉ USD mỗi năm để duy trì hoạt động.

open-ai-xem-xet-tao-chip-ai-rieng.png
OpenAI đang khám phá việc sản xuất chip AI của riêng mình và tiến xa đến việc đánh giá mục tiêu mua lại tiềm năng - Ảnh: Internet

Kỷ nguyên chip tùy chỉnh

Nỗ lực phát triển chip AI của riêng mình sẽ đưa OpenAI vào một nhóm nhỏ các hãng công nghệ lớn như Google và Amazon đang tìm cách cố gắng kiểm soát quá trình thiết kế các chip quan trọng với hoạt động kinh doanh của họ.

Chưa rõ liệu OpenAI có tiếp tục kế hoạch xây dựng chip tùy chỉnh hay không. Theo các chuyên gia kỳ cựu trong ngành, làm như vậy sẽ là sáng kiến chiến lược lớn và một khoản đầu tư lớn với chi phí có thể lên tới hàng trăm triệu USD mỗi năm. Ngay cả khi cam kết tập trung tài nguyên cho nhiệm vụ này thì OpenAI cũng không đảm bảo được sự thành công.

Việc mua lại một công ty chip có thể đẩy nhanh quá trình xây dựng chip riêng của OpenAI, giống Amazon thông qua việc mua lại Annapurna Labs vào năm 2015.

Theo một trong những người quen thuộc với kế hoạch của OpenAI, công ty đã xem xét đến mức độ thực hiện công việc kiểm tra thông tin về một mục tiêu có thể mua lại. Chưa rõ được danh tính của công ty mà OpenAI nhắm đến.

Ngay cả khi OpenAI tiến hành các kế hoạch về chip tùy chỉnh, gồm cả việc mua lại, thì nỗ lực này có thể sẽ mất vài năm. Trong thời gian chờ đợi, công ty vẫn phải phụ thuộc vào các nhà cung cấp chip thương mại như Nvidia và Advanced Micro Devices (AMD).

Một số hãng công nghệ lớn đã xây dựng bộ xử lý của riêng họ trong nhiều năm nhưng kết quả vẫn còn hạn chế. Theo báo cáo của Reuters, nỗ lực sản xuất chip tùy chỉnh của Meta Platforms đã gặp phải nhiều vấn đề, khiến công ty phải loại bỏ một số chip AI của mình. Chủ sở hữu Facebook đang nghiên cứu một chip mới hơn có thể hỗ trợ tất cả các loại công việc AI.

Microsoft, hãng tài trợ chính cho OpenAI, cũng đang phát triển một chip AI tùy chỉnh mà OpenAI đang thử nghiệm, trang The Information đưa tin.

Trong nỗ lực giảm chi phí chạy các mô hình generative AI, Microsoft đang phát triển chip AI có tên Athena. Dự án bắt đầu vào năm 2019.

Theo The Information, ý tưởng đằng sau Athena có hai mục đích. Các lãnh đạo Microsoft nhận ra rằng công ty đang tụt lại phía sau Google và Amazon trong nỗ lực xây dựng chip nội bộ của riêng mình, một nguồn tin am hiểu về vấn đề này nói với The Information.

Ngoài ra, Microsoft được cho đang tìm kiếm các giải pháp thay thế rẻ hơn (các mô hình AI của họ hiện chạy trên GPU Nvidia) và quyết định xây dựng một chip ít tốn kém hơn.

Gần 4 năm sau, hơn 300 nhân viên Microsoft đang làm việc trên chip này. Athena có thể được phát hành để sử dụng nội bộ bởi Microsoft và OpenAI vào đầu năm tới, hai nguồn tin quen thuộc với vấn đề này nói với The Information.

Việc OpenAI xem xét sản xuất chip AI riêng có thể gợi ý rằng hãng đang có xu hướng giảm phụ thuộc Microsoft.

Nhu cầu về chip AI chuyên dụng đã tăng vọt kể từ khi ChatGPT ra mắt vào tháng 11.2022. Các chip cụ thể hoặc bộ tăng tốc AI là cần thiết để đào tạo và chạy công nghệ AI thế hệ mới nhất. Nvidia là một trong số ít nhà sản xuất chip sản xuất được chip AI hữu ích và chiếm lĩnh thị trường.

OpenAI có thể tốn hơn 700.000 USD/ngày để vận hành ChatGPT

Việc rất nhiều người trên thế giới sử dụng ChatGPT có thể làm OpenAI tiêu tốn hơn 700.000 USD mỗi ngày do cơ sở hạ tầng công nghệ đắt tiền mà chatbot AI này chạy trên đó, theo Dylan Patel, chuyên gia phân tích tại công ty nghiên cứu bán dẫn SemiAnalysis. Lý do vì ChatGPT yêu cầu sức mạnh tính toán khổng lồ để phản hồi yêu cầu của người dùng.

"Hầu hết chi phí này dựa trên các máy chủ đắt tiền mà OpenAI cần", Dylan Patel nói với trang The Information.

Trong cuộc gọi điện thoại với trang Insider, Dylan Patel cho biết việc OpenAI vận hành ChatGPT bây giờ thậm chí còn tốn kém hơn, vì ước tính ban đầu của ông dựa trên mô hình GPT-3.

GPT-4, mô hình mới nhất của OpenAI, thậm chí còn hao tốn tiền bạc hơn để chạy, Dylan Patel nói.

Dylan Patel và Afzal Ahmad, nhà phân tích khác tại SemiAnalysis, cho biết: “Việc đào tạo các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Song, chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào".

"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí đào tạo hàng tuần", họ nhấn mạnh.

Bài liên quan
Reid Hoffman: Elon Musk nói 'tất cả các anh là lũ ngốc' trước khi rời OpenAI
Theo tờ The New Yorker, việc Elon Musk rời OpenAI năm 2018 đã làm rung chuyển tổ chức trí tuệ nhân tạo (AI) này.

(0) Bình luận
Nổi bật Một thế giới
Bàn giải pháp cấp nước sạch ở ĐBSCL bằng nhà máy di động trong container
6 giờ trước Theo dòng thời sự
Hiện đã có doanh nghiệp làm được nhà máy nước di động, đầu vào sử dụng nước ngọt và cả nước nhiễm mặn để xử lý thành nước sạch với công suất tới 3.000m3/ngày.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
OpenAI xem xét tạo chip AI riêng để giảm phụ thuộc Nvidia và Microsoft