Thứ Ba, 16 Tháng 9 2025
No menu items!
Google search engine
HomeKhoa họcChatbot AI: "Cỗ Máy" Tiêu Thụ Năng Lượng Khổng Lồ?

Chatbot AI: “Cỗ Máy” Tiêu Thụ Năng Lượng Khổng Lồ?

Bạn có biết mỗi lần “chat chit” với AI, chúng ta đang vô tình góp phần vào việc tiêu thụ năng lượng toàn cầu? Cùng khám phá sự thật bất ngờ về “cơn khát” năng lượng của chatbot AI!

Bài viết này khám phá lý do tại sao các chatbot AI lại “ngốn” nhiều năng lượng đến vậy, từ quá trình huấn luyện phức tạp đến việc xử lý hàng tỷ yêu cầu mỗi ngày. Cùng tìm hiểu về tác động môi trường và những nỗ lực để giảm thiểu “dấu chân năng lượng” của AI.

Chatbox AI đang trở nên ngày càng phổ biến. Ảnh: Caltech

Chatbox AI đang trở nên ngày càng phổ biến. Ảnh: *Caltech*

“Khát” năng lượng đến mức nào?

Theo *Live Science*, các chatbot AI đang tiêu thụ một lượng năng lượng đáng kinh ngạc. Năm 2023, các trung tâm dữ liệu phục vụ việc huấn luyện và vận hành AI đã “ngốn” tới 4.4% tổng lượng điện tiêu thụ của Hoa Kỳ và khoảng 1.5% trên toàn cầu. Theo dự đoán, con số này sẽ tăng ít nhất gấp đôi vào năm 2030, khi mà nhu cầu sử dụng AI ngày càng tăng cao. Vậy, điều gì khiến chatbot AI lại “khát” năng lượng đến vậy?

Bí mật nằm ở “kích thước” và “học hỏi”

Mosharaf Chowdhury, một nhà khoa học máy tính tại Đại học Michigan, cho rằng nguyên nhân chính nằm ở quy mô đồ sộ của chúng, đặc biệt là trong hai giai đoạn: huấn luyện và suy luận.

Huấn luyện: Quá trình “nhồi nhét” kiến thức

Để “dạy” một chatbot AI, các mô hình ngôn ngữ lớn (LLM) được cung cấp một lượng dữ liệu khổng lồ. AI sẽ “học”, nhận diện các mẫu lặp lại và đưa ra dự đoán. Alex de Vries-Gao, nhà nghiên cứu về tính bền vững của công nghệ tại Đại học Vrije Amsterdam, cho biết mô hình càng lớn và được cung cấp càng nhiều dữ liệu, thì khả năng dự đoán càng chính xác.

Nghiên cứu năm 2023 của de Vries-Gao ước tính rằng một máy chủ Nvidia DGX A100 tiêu thụ tới 6.5 kilowatt điện. Quá trình huấn luyện LLM thường đòi hỏi rất nhiều máy chủ, mỗi máy chủ có trung bình 8 GPU, hoạt động liên tục trong nhiều tuần hoặc thậm chí nhiều tháng, dẫn đến mức tiêu thụ năng lượng khổng lồ. Ví dụ, việc huấn luyện GPT-4 của OpenAI ước tính đã sử dụng tới 50 gigawatt-giờ năng lượng, tương đương với lượng điện cung cấp cho thành phố San Francisco trong vòng 3 ngày!

Suy luận: Đưa ra câu trả lời cũng tốn kém

Quá trình suy luận, trong đó chatbot AI sử dụng những gì đã học để đưa ra câu trả lời cho một câu hỏi, cũng tiêu thụ một lượng năng lượng đáng kể. Mặc dù không cần nhiều tài nguyên máy tính như giai đoạn huấn luyện, nhưng số lượng câu hỏi mà chatbot AI phải xử lý là vô cùng lớn.

Tính đến tháng 7/2025, OpenAI cho biết người dùng ChatGPT gửi hơn 2.5 tỷ câu hỏi mỗi ngày! Để đảm bảo phản hồi nhanh chóng, họ phải sử dụng một lượng lớn máy chủ. Chưa kể, còn rất nhiều chatbot khác như Gemini của Google cũng đang được sử dụng rộng rãi.

Hướng tới một tương lai “xanh” hơn cho AI

Các nhà nghiên cứu như Chowdhury và de Vries-Gao đang nỗ lực tìm cách đo lường chính xác hơn nhu cầu năng lượng của AI, từ đó tìm ra những giải pháp tiết kiệm điện. Tuy nhiên, thông tin về nhu cầu năng lượng cụ thể của các nền tảng AI vẫn còn khá hạn chế, do nhiều công ty lớn như Google, Microsoft và Meta giữ kín hoặc cung cấp những con số khó xác định.

Việc xác định mức năng lượng thực tế mà AI đang sử dụng, những thay đổi trong nhu cầu năng lượng trong tương lai, và khả năng đáp ứng của thế giới trở nên vô cùng khó khăn. Để thúc đẩy sự minh bạch, chúng ta, những người sử dụng chatbot AI, có thể đưa ra những lựa chọn sử dụng AI một cách có trách nhiệm hơn.

Trình Nguyễn
Trình Nguyễnhttps://motthegioi.vn
Chia sẻ điều hay. Tốt hơn mỗi ngày.
RELATED ARTICLES
- Advertisment -
Google search engine

ĐANG HOT

BÌNH LUẬN