近日,OpenAI的聊天机器人ChatGPT的耗电情况引发了广泛关注。据报道,ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。这一耗电量是美国家庭平均每天使用电力的1.7万多倍,这一数据无疑令人震惊。
荷兰国家银行数据科学家亚历克斯·德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力。这一预测进一步揭示了人工智能行业的耗电问题。而据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。这一趋势无疑将对全球电力供应产生巨大压力。
特斯拉CEO马斯克也对此表示担忧,他预计,未来两年内将由“缺硅”变为“缺电”。这一预测不仅揭示了人工智能行业的耗电问题,也暗示了未来可能出现的电力短缺问题。马斯克认为,电力短缺可能会造成严重后果,就像最近缺芯阻碍科技和汽车行业一样。
然而,这一问题并非无解。浪潮信息服务器产品线总经理赵帅表示,如今数据中心节能降碳面临“多重挑战”,优化制冷系统成为数据中心提高能源效率的重要环节。此外,我们也需要寻求新的能源解决方案,比如可再生能源,以满足人工智能行业的耗电需求。
ChatGPT的耗电情况只是冰山一角,它揭示了整个人工智能行业的耗电问题。随着人工智能技术的发展,我们必须正视这一问题,并寻求有效的解决方案。否则,未来可能会出现“缺电”问题,这将对人工智能的发展产生严重影响。
本文源自金融界