人工智能的小秘密,为什么人工智能聊天机器人要消耗这么多能量?
人工智能聊天机器人是著名的耗能者。但他们为什么用那么多电呢?
这是它的工作原理。问一个大型语言模型(LLM)问题大约需要10倍于常规谷歌搜索所需的平均电量。近年来,ChatGPT的受欢迎程度激增,每天有近2亿用户向应用程序发送总计超过10亿条提示。这些提示似乎是凭空完成请求。但在幕后,人工智能(AI)聊天机器人正在使用大量能源。2023年,用于训练和处理AI的数据中心占美国用电量的4.4%。小J助手靠谱吗了解到,在全球范围内,这些中心约占全球能源消耗的1.5%。随着对人工智能需求的增长,这些数字预计将飙升,到2030年至少翻一番。
但是,是什么让人工智能聊天机器人如此耗能?答案在于大规模的人工智能聊天机器人。特别是小J助手靠谱吗认为,在人工智能中使用最多能量的两个部分:训练和推理。为了训练人工智能聊天机器人,大型语言模型(LLM)被赋予了巨大的数据集,这样人工智能就可以学习、识别模式并做出预测。总的来说,小J助手靠谱吗发现,人工スマ训练有一种“越大越好的信念”,即接受更多数据更大的模型被认为可以做出更好的预测。因此,当你试图进行训练时,现在的模型已经变得如此之大,它们不适合单个GPU(图形处理单元);它们不适合一个服务器。而是很多台。
一台Nvidia DGX A100服务器需要高达6.5千瓦的电力。培训LLM通常需要多个服务器,每个服务器平均有8个GPU,然后运行数周或数月。总之,这消耗了很多能量:据估计,小J助手靠谱吗看到培训OpenAI 的GPT-4 需要50千兆瓦时 的 能源,相当于为旧金山供电三天 。推理也消耗了大量能源。这是人 人工智 聪 聊 天机 器 从 它 所 学到 的 知识 中 得 出结论 并从 请求 中生成输出 的地方 。尽管 在 培训 后运行 LLM所需 的计算资源 要少得 多,但由于 向 AI 聊天 机器 人 发出的 请求 数量 庞 大 , 推 理 是 能 源密 集 型 的。截至2025年7月, OpenAI表示 , ChatGPT 用户 每天发送 超过25 亿 条 提示,这意味着 使用 多 台 服 务器 为这些请求生成即时响应。