Trí tuệ nhân tạo (AI) được kỳ vọng sẽ tác động lớn đến cuộc sống hàng triệu người trên thế giới, nhưng mặt trái là công nghệ này đang tiêu thụ rất nhiều điện năng.
Nhịp đập khoa học

‘ChatGPT tiêu thụ lượng điện mỗi ngày gấp 17.000 lần một hộ gia đình ở Mỹ’

Sơn Vân 10/03/2024 12:57

Trí tuệ nhân tạo (AI) được kỳ vọng sẽ tác động lớn đến cuộc sống hàng triệu người trên thế giới, nhưng mặt trái là công nghệ này đang tiêu thụ rất nhiều điện năng.

Theo trang The New Yorker, ChatGPT (chatbot AI đình đám của OpenAI) có thể đang sử dụng hơn nửa triệu kilowatt-giờ (kWh) điện để đáp ứng khoảng 200 triệu truy vấn từ người dùng mỗi ngày.

The New Yorker đưa tin một hộ gia đình ở Mỹ trung bình sử dụng khoảng 29 kilowatt-giờ điện mỗi ngày. Theo đó, ChatGPT tiêu thụ lượng điện nhiều gấp 17.000 lần một hộ gia đình ở Mỹ mỗi ngày.

Nếu được tiếp tục được cải tiến và sử dụng nhiều hơn, ChatGPT nói riêng và AI tạo sinh nói chung có thể tiêu thụ nhiều điện hơn đáng kể.

AI tạo sinh là một loại AI có mục tiêu chính là tạo ra thông tin mới, thường thông qua quá trình học máy và học sâu. Loại AI này không chỉ giải quyết các nhiệm vụ cụ thể, mà còn có khả năng tạo ra dữ liệu, văn bản, hình ảnh, âm thanh, video và nhiều loại thông tin khác.

Một ví dụ nổi tiếng về AI tạo sinh là mô hình ngôn ngữ lớn GPT của OpenAI. GPT có khả năng tạo ra văn bản mới, dựa trên dữ liệu mà nó đã được huấn luyện trước đó.

AI tạo sinh có thể được sử dụng trong nhiều ứng dụng, gồm tạo văn bản, hình ảnh, âm thanh video và thậm chí giải quyết vấn đề trong lĩnh vực nghệ thuật sáng tạo và thiết kế.

Ví dụ, nếu Google tích hợp công nghệ AI tạo sinh vào mọi tìm kiếm thì sẽ dẫn đến việc tiêu thụ khoảng 29 tỉ kilowatt-giờ điện mỗi năm, theo tính toán của Alex de Vries, nhà khoa học dữ liệu của Ngân hàng Quốc gia Hà Lan, trong một bài báo về năng lượng bền vững đăng trên tạp chí Joule. Theo The New Yorker, đó là lượng điện nhiều hơn các quốc gia như Kenya, Guatemala và Croatia tiêu thụ trong một năm.

“AI tiêu thụ rất nhiều điện năng. Mỗi máy chủ AI đều có thể tiêu thụ nhiều điện năng hơn chục hộ gia đình ở Anh cộng lại. Vì vậy, con số tăng lên rất nhanh", de Vries nói với trang Insider.

Tuy nhiên, rất khó để ước tính lượng điện mà ngành công nghiệp AI tiêu thụ. Theo trang The Verge, có sự khác biệt đáng kể trong cách các mô hình ngôn ngữ lớn vận hành và các hãng công nghệ lớn (vốn đang thúc đẩy sự bùng nổ AI) vẫn chưa công bố chính xác về việc sử dụng năng lượng của họ.

Trong bài báo của mình, Alex de Vries đã đưa ra tính toán sơ bộ như trên dựa vào số liệu được Nvidia công bố. Nvidia là hãng chip lớn nhất và có giá trị nhất thế giới, được một số người gọi là "Cisco" của sự bùng nổ AI. Theo số liệu từ hãng New Street Research, Nvidia chiếm khoảng 95% thị phần bộ xử lý đồ họa (GPU).

Alex de Vries ước tính trong bài báo rằng đến năm 2027, toàn bộ lĩnh vực AI sẽ tiêu thụ từ 85 đến 134 terawatt-giờ điện (1 terawatt-giờ bằng 1 tỉ kilowatt-giờ) mỗi năm.

Ông nói với trang The Verge: “Mức tiêu thụ điện của AI có khả năng chiếm một nửa lượng tiêu thụ điện toàn cầu vào năm 2027. Tôi nghĩ đó là một con số khá đáng kể”.

Một số doanh nghiệp sử dụng điện năng nhiều nhất thế giới thậm chí không bằng con số nêu trên. Theo tính toán từ Insider dựa trên báo cáo của hãng Consumer Energy Solutions, Samsung Electronics sử dụng gần 23 terawatt-giờ điện mỗi năm, trong khi gã khổng lồ công nghệ Google dùng hơn 12 terawatt-giờ điện mỗi năm và Microsoft xài hơn 10 terawatt-giờ điện mỗi năm để vận hành các trung tâm dữ liệu, mạng, thiết bị người dùng.

OpenAI không trả lời ngay lập tức câu hỏi tìm kiếm bình luận của Insider.

chatgpt-tieu-thu-luong-dien-moi-ngay-gap-17-000-lan-mot-ho-gia-dinh-o-my.jpg
ChatGPT có thể đang sử dụng hơn nửa triệu kilowatt-giờ điện để đáp ứng khoảng 200 triệu truy vấn từ người dùng mỗi ngày - Ảnh: Internet

“Cuộc khủng hoảng năng lượng thực sự tồi tệ vì AI”

Sajjad Moazeni, giáo sư kỹ thuật điện và máy tính tại Đại học Washington (Mỹ), cho biết: “Mức tiêu thụ năng lượng của các thứ như truy vấn ChatGPT có thể tiêu tốn điện gấp 10 đến 100 lần so với truy vấn trên email”.

Arijit Sengupta, người sáng lập và Giám đốc điều hành của Aible (công ty giải pháp AI dành cho doanh nghiệp), nói: “Chúng tôi có thể chỉ mới đạt được 1% mức độ áp dụng AI trong 2 đến 3 năm tới. Thế giới thực sự đang hướng tới một cuộc khủng hoảng năng lượng thực sự tồi tệ vì AI, trừ khi chúng ta khắc phục được một số thứ”.

Trung tâm dữ liệu là trái tim của quá trình tính toán AI tiên tiến, với hàng ngàn bộ xử lý và máy chủ lõi của ngành điện toán đám mây, phần lớn do Google, Microsoft và Amazon quản lý.

Angelo Zino, Phó chủ tịch và nhà phân tích cổ phiếu cấp cao tại CFRA Research, cho biết: “Khi nhiều người nghĩ về sự thay đổi trong cuộc sống nhờ các mô hình ngôn ngữ lớn thì những trung tâm dữ liệu này sẽ tiêu thụ nhiều năng lượng hơn”.

Các trung tâm dữ liệu ngày càng chuyển từ sử dụng các bộ xử lý trung tâm (CPU) sang GPU tiên tiến hơn. GPU do các công ty như Nvidia, AMD sản xuất và sẽ tiêu tốn nhiều năng lượng hơn.

Patrick Ward, Phó chủ tịch Formula Monks (công ty tư vấn công nghệ AI), nói: “Trong thập kỷ tới, GPU sẽ là cốt lõi của cơ sở hạ tầng AI và nó tiêu thụ lượng điện năng trên mỗi chu kỳ xử lý gấp 10 đến 15 lần so với CPU”.

“Mức tiêu thụ năng lượng sẽ tăng đáng kể trên quy mô toàn cầu, đơn giản là do AI ngốn rất nhiều điện. Thế nhưng, điều thú vị là AI cũng cực kỳ hiệu quả ở những việc mà con người không làm được”, ông cho biết thêm.

Chi phí cơ sở hạ tầng khổng lồ

Theo nghiên cứu được thực hiện bởi Benjamin C. Lee, giáo sư kỹ thuật điện và khoa học máy tính tại Đại học Pennsylvania và giáo sư David Brooks của Đại học Harvard, mức sử dụng năng lượng của trung tâm dữ liệu ở Mỹ đã tăng trung bình 25% mỗi năm từ 2015 đến 2021. Đó là trước khi AI tạo sinh thu hút sự chú ý và việc sử dụng ChatGPT tăng vọt.

Trong khi đó, dữ liệu của Cơ quan Thông tin Năng lượng Mỹ (EIA) tiết lộ rằng tốc độ tăng trưởng hàng năm về triển khai năng lượng tái tạo là 7% cùng thời kỳ, dù con số đó dự kiến sẽ tăng lên nhờ các sáng kiến như Đạo luật Giảm lạm phát (IRA).

“Đã có khoảng cách khá lớn giữa tốc độ tăng trưởng giữa năng lượng của trung tâm dữ liệu và việc triển khai năng lượng tái tạo… Chúng tôi gọi nó là điện toán đám mây. Chi phí cơ sở hạ tầng rất lớn”, Benjamin C. Lee nói.

Các nhà cung cấp điện toán đám mây lớn như Google Cloud, Microsoft Azure và Amazon Web Services đều đầu tư vào năng lượng tái tạo để phù hợp với mức tiêu thụ điện hàng năm của họ. Các công ty này cũng cam kết về phát thải ròng bằng 0, nghĩa là sẽ loại bỏ lượng khí thải carbon mà họ tạo ra.

Microsoft đã quảng bá trạng thái trung hòa carbon 100% kể từ năm 2012 và nói rằng đến 2030 sẽ trung hoà carbon. Amazon dự kiến sẽ cung cấp 100% năng lượng tái tạo cho các hoạt động của vào năm 2025, như một phần trong mục tiêu đạt được lượng phát thải ròng bằng 0 trong 2040. Google đặt mục tiêu đạt phát thải thải ròng bằng 0 trong tất cả các hoạt động của mình trước năm 2030.

Các nhà phân tích cũng chỉ ra rằng việc giảm chi phí sẽ thúc đẩy lĩnh vực AI hướng tới các giải pháp năng lượng một cách tự nhiên.

“Dù đó là do khí thải, hiệu quả tài chính, áp lực của nhà đầu tư hay bất cứ điều gì khác, chúng tôi thấy rằng các công ty đang quan tâm nhiều đến cách hoạt động hiệu quả hơn. Chúng ta càng làm việc hiệu quả thì chi phí vận hành càng thấp”, Tegan Keele, trưởng nhóm công nghệ và dữ liệu khí hậu Mỹ của KPMG, nhận xét.

Bài liên quan
OpenAI nới lỏng các hạn chế về việc dùng ChatGPT cho mục đích quân sự
Trong bản cập nhật không báo trước về chính sách sử dụng của mình mới đây, OpenAI đã dỡ bỏ lệnh cấm rộng rãi với việc sử dụng công nghệ của công ty, gồm cả ChatGPT, cho mục đích “quân sự và chiến tranh”.

(0) Bình luận
Nổi bật Một thế giới
Vui buồn nghề muối Bạc Liêu - Bài 3: Hiến kế phát triển nghề
Để nghề sản xuất muối vượt qua khó khăn, làm tiền đề để nâng cao đời sống và có nhiều hơn những hộ khá giàu, bà con diêm dân đã mạnh dạn hiến kế để chính quyền địa phương xem xét, lựa chọn kế sách phù hợp, từng bước đưa nghề muối ở Bạc Liêu phát triển bền vững, diêm dân sống được với nghề vốn được xem là truyền thống.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
‘ChatGPT tiêu thụ lượng điện mỗi ngày gấp 17.000 lần một hộ gia đình ở Mỹ’