Sự bùng nổ của generative AI gây bão trên toàn thế giới, nhưng có một câu hỏi hiếm khi được đặt ra: Ai có đủ khả năng chi trả cho nó?

Mây đen bao phủ cuộc cách mạng ChatGPT và generative AI: Chi phí khổng lồ

Sơn Vân | 21/05/2023, 16:42

Sự bùng nổ của generative AI gây bão trên toàn thế giới, nhưng có một câu hỏi hiếm khi được đặt ra: Ai có đủ khả năng chi trả cho nó?

OpenAI đã chịu khoản lỗ khoảng 540 triệu USD vào năm ngoái khi phát triển ChatGPT và cho biết cần 100 tỉ USD để đáp ứng những tham vọng của mình, theo trang The Information.

Hôm 23.1, Microsoft cho biết đã đầu tư hàng tỉ USD vào OpenAI trong một thỏa thuận kéo dài nhiều năm sẽ chứng kiến gã khổng lồ phần mềm trở thành nhà cung cấp dịch vụ đám mây độc quyền cho “cha đẻ” ChatGPT.

Khi được hỏi về mức chi phí cho cuộc phiêu lưu AI của mình, Microsoft trả lời rằng họ đảm bảo sẽ chú ý đến mức lợi nhuận cuối cùng.

Xây dựng thứ gì đó gần bằng quy mô của những gì OpenAI, Microsoft hay Google cung cấp sẽ đòi hỏi khoản đầu tư lớn vào các chip hiện đại và tuyển dụng các nhà nghiên cứu từng đoạt giải thưởng.

"Nhiều người không nhận ra rằng để thực hiện số lượng đáng kể các công việc AI như ChatGPT đòi hỏi lượng lớn sức mạnh xử lý. Việc huấn luyện những mô hình đó có thể tốn hàng chục triệu USD", Jack Gold, nhà phân tích độc lập, cho biết.

Jack Gold đặt câu hỏi: “Có bao nhiêu công ty thực sự có đủ khả năng để mua hệ thống 10.000 Nvidia H100 (bộ xữ lý đồ họa tiên tiến của Nvidia) với giá hàng chục ngàn USD mỗi chiếc?”.

Câu trả lời là hiếm ai. Trong lĩnh vực công nghệ, nếu không thể xây dựng cơ sở hạ tầng, bạn sẽ thuê nó và đó là điều mà nhiều công ty đã làm bằng cách giao việc tính toán của họ cho Microsoft, Google và Amazon Web Services.

Với sự ra đời của generative AI, sự phụ thuộc vào điện toán đám mây và những gã khổng lồ công nghệ ngày càng sâu sắc, các chuyên gia cảnh báo.

Stefan Sigg, Giám đốc sản phẩm của Software AG, công ty phát triển phần mềm cho doanh nghiệp, nói chi phí không thể đoán trước của điện toán đám mây “là vấn đề bị đánh giá thấp với nhiều công ty”.

Stefan Sigg so sánh chi phí đám mây với hóa đơn tiền điện và nói rằng các công ty không biết rõ điều này sẽ gặp phải “bất ngờ lớn” nếu để các kỹ sư của mình thanh toán hóa đơn trong quá trình điên cuồng xây dựng công nghệ, gồm cả AI.

chi-phi-khong-lo-may-den-bao-phu-cuoc-cach-mang-chatgpt.jpg
OpenAI chịu lỗ 540 triệu USD vào năm ngoái khi phát triển ChatGPT

Một số nhà quan sát tin rằng việc Microsoft đặt cược vào AI là để bảo vệ thành công dịch vụ điện toán đám mây Azure và đảm bảo duy trì nguồn thu lớn này trong tương lai.

Azure trở thành trụ cột gia đình kém tiếng của Microsoft trong nhiều năm, mang lại lợi nhuận khổng lồ nhưng không thu hút sự chú ý như iPhone hay phương tiện truyền thông xã hội đi thẳng đến người tiêu dùng.

Với Microsoft, việc tận dụng và khai thác Azure là nguồn lợi nhuận quan trọng, vì chúng ta đang nói về cơ hội có thể là 20, 30, 40 tỉ USD hàng năm trong tương lai nếu Microsoft đặt cược vào AI thành công”, Dan Ives, chuyên gia phân tích công nghệ của hãng Wedbush Securities, cho biết.

Satya Nadella, Giám đốc điều hành Microsoft, khẳng định rằng generative AI đang “đi đúng hướng”.

Dan Ives dự đoán Satya Nadella sẽ có thời gian 6 hoặc 9 tháng để chứng minh vụ cá cược của Microsoft vào AI đem về chiến thắng.

Microsoft thừa nhận rủi ro nhưng khẳng định rằng về AI, công ty phải “dẫn đầu làn sóng này”, Giám đốc tài chính Amy Hood nói với các nhà phân tích trong tháng 5.

Bà nói: “Chúng tôi sẽ tính phí cho những tính năng AI đó và cuối cùng sẽ đạt được lợi nhuận hoạt động”.

Việc tích lũy lợi nhuận của Microsoft đồng nghĩa là chuyển chi phí AI cho khách hàng.

Từ các doanh nghiệp nhỏ đến các công ty lớn và nổi tiếng, sự phụ thuộc vào AI để tăng cường sức mạnh sẽ đòi hỏi chi phí lớn. Họ cũng như nhà đầu tư đang tìm kiếm các giải pháp thay thế để ít nhất là giảm hóa đơn.

Huấn luyện AI, huấn luyện GPT sẽ trở thành dịch vụ đám mây rất quan trọng trong tương lai”, Tenry Fu, Giám đốc điều hành Spectro Cloud, cho biết.

Giống như nhiều hãng khác trong lĩnh vực này, Spectro Cloud giúp các công ty tối ưu hóa công nghệ đám mây để giảm chi phí.

Tenry Fu nói thêm: “Sau khi đào tạo, một công ty sẽ có thể lấy mô hình của họ để ứng dụng AI thực sự” và hy vọng sự phụ thuộc vào những gã khổng lồ trên nền tảng đám mây sẽ giảm bớt.

Các cơ quan quản lý đang hy vọng có thể theo kịp và không để những gã khổng lồ chi phối, áp đặt các điều khoản của họ lên các công ty nhỏ hơn.

Thế nhưng có lẽ đã quá muộn, ít nhất là khi nói đến việc các công ty nào có đủ phương tiện để cung cấp nền tảng cho generative AI.

Hoàn toàn đúng là số lượng các công ty có thể đào tạo các mô hình AI tiên tiến thực sự sẽ rất ít, chỉ vì thiếu các nguồn lực cần thiết. Vì vậy, tôi nghĩ rằng cần phải có sự giám sát chặt chẽ với chúng tôi và các đối thủ cạnh tranh của chúng tôi”, Sam Altman nói tại ủy ban Thượng viện Mỹ hôm 16.5.

OpenAI chịu khoản lỗ lớn để ChatGPT trả lời câu hỏi của người dùng khắp thế giới

OpenAI phải trả cái giá rất đắt để phát triển công nghệ, với khoản lỗ tăng gần gấp đôi lên khoảng 540 triệu USD vào năm 2022, theo trang The Information, trích dẫn ba người có kiến ​​thức về tài chính của OpenAI.

Con số này cho thấy mức chi phí mà OpenAI phải gánh chịu trong nỗ lực triển khai một sản phẩm AI thương mại. Vào đầu năm nay, OpenAI đã phải xoay xở để có khoản đầu tư nhiều tỉ USD từ Microsoft.

Chi phí để xây dựng và chạy ChatGPT bắt nguồn từ nhu cầu về sức mạnh tính toán cực lớn, đóng vai trò trung tâm trong việc tạo câu trả lời cho lời nhắc của người dùng.

Tháng trước, Dylan Patel, nhà phân tích chính của công ty tư vấn SemiAnalysis, nói với trang The Information rằng ChatGPT có thể làm tiêu tốn của OpenAI khoảng 700.000 USD mỗi ngày do các chi phí liên quan đến tính toán.

"Hầu hết chi phí này dựa trên các máy chủ đắt tiền mà OpenAI cần", Dylan Patel nói với trang The Information.

Theo trang Insider, Dylan Patel cho biết việc OpenAI vận hành ChatGPT bây giờ thậm chí còn tốn kém hơn, vì ước tính ban đầu của ông dựa trên mô hình GPT-3.

GPT-4, mô hình mới nhất của OpenAI, thậm chí còn hao tốn tiền bạc hơn để chạy, Dylan Patel nói.

Dylan Patel và Afzal Ahmad, nhà phân tích khác tại SemiAnalysis, cho biết: “Việc huấn luyện các mô hình ngôn ngữ lớn của OpenAI có thể tiêu tốn hàng chục triệu USD. Song chi phí vận hành hoặc chi phí suy luận vượt xa chi phí đào tạo khi triển khai một mô hình ngôn ngữ lớn ở bất kỳ quy mô hợp lý nào".

"Trên thực tế, chi phí suy luận của ChatGPT vượt quá chi phí huấn luyện hàng tuần", họ nhấn mạnh.

Các công ty sử dụng mô hình ngôn ngữ lớn của OpenAI đã phải trả giá đắt đỏ trong nhiều năm. Nick Walton, Giám đốc điều hành Latitude, công ty khởi nghiệp đứng sau game AI Dungeon sử dụng lời nhắc để tạo cốt truyện, nói việc chạy mô hình ngôn ngữ lớn này cùng các khoản thanh toán cho máy chủ Amazon Web Services khiến công ty phải trả 200.000 USD mỗi tháng để AI trả lời hàng triệu truy vấn của người dùng vào năm 2021, trang CNBC đưa tin.

Chi phí cao là lý do Nick Walton cho biết ông quyết định chuyển sang một nhà cung cấp phần mềm ngôn ngữ được hỗ trợ bởi AI21 Labs. Điều này đã cắt giảm một nửa chi phí AI của Latitude xuống còn 100.000 USD mỗi tháng.

Nick Walton nói với CNBC: "Chúng tôi nói đùa rằng có cả nhân viên là con người và nhân viên AI. Chúng tôi đã chi cho mỗi bên số tiền tương đương nhau. Chúng tôi đã bỏ ra hàng trăm nghìn USD mỗi tháng cho AI và do không phải là công ty khởi nghiệp lớn nên đó là một chi phí rất lớn".

John Hennessy, Chủ tịch Alphabet (công ty mẹ của Google), trước đây nói rằng một tìm kiếm trên chatbot Bard tốn gấp 10 lần so với một tìm kiếm thông thường.

Dù OpenAI đã củng cố tài chính với sự hỗ trợ của Microsoft, nhưng nhu cầu ngày càng tăng với ChatGPT sẽ gây thêm áp lực về chi phí. ChatGPT trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử sau khi đạt 100 triệu người dùng hoạt động hàng tháng chỉ sau 60 ngày sau khi ra mắt cuối tháng 11.2022.

Sam Altman gợi ý rằng "OpenAI sẽ là công ty khởi nghiệp sử dụng nhiều vốn nhất trong lịch sử Thung lũng Silicon", The Information đưa tin.

The Information cho biết Sam Altman đã "gợi ý trong nội bộ" rằng OpenAI có thể cố gắng gây quỹ khoảng 100 tỉ USD trong những năm tới khi công ty đang làm việc để phát triển generative AI mạnh mẽ như bộ não con người.

Doanh thu của OpenAI được dự đoán sẽ tăng đáng kể trong năm 2023. Các nhà phân tích kỳ vọng doanh thu của OpenAI sẽ đạt 200 triệu USD trong năm nay trước khi tăng lên 1 tỉ USD vào 2024, theo hãng Reuters.

Bài liên quan
‘Công ty AI của Elon Musk có thể tạo phiên bản Elon ảo đáng sợ, đối đầu Google, Microsoft và Meta’
Mark Cuban cho rằng việc Elon Musk sở hữu Twitter có thể giúp liên doanh trí tuệ nhân tạo (AI) của ông cạnh tranh với OpenAI và các công ty khác.

(0) Bình luận
Nổi bật Một thế giới
Bộ trưởng Nguyễn Mạnh Hùng: Người Việt có gien về KH-CN, là lợi thế để phát triển ngành bán dẫn
3 giờ trước Nhịp đập khoa học
Bộ trưởng Bộ TT-TT Nguyễn Mạnh Hùng cho hay Việt Nam có nhiều lợi thế về công nghiệp bán dẫn, trong đó đáng chú ý là người Việt có gien về khoa học công nghệ. Lợi thế này không kém gì lợi thế về địa chính trị.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Mây đen bao phủ cuộc cách mạng ChatGPT và generative AI: Chi phí khổng lồ