【ITBEAR科技资讯】4月15日消息,随着人工智能(AI)技术的飞速发展,由其引发的能耗问题日益凸显,引发了社会各界的广泛关注。近日,芯片巨头Arm公司的CEO哈斯(Rene Haas)公开表示,包括ChatGPT在内的大型AI模型对算力的巨大需求,预计到2030年,AI数据中心将占据美国20%至25%的电力需求,相较于现在的4%有大幅增长。
据ITBEAR科技资讯了解,当前ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时,相当于一年电费就要花费2亿元人民币。这一数字令人震惊,它意味着ChatGPT的日耗电量是普通家庭的1.7万倍以上。同时,有预测认为,到2027年,AI行业每年的电力消耗可能达到850亿~1340亿千瓦时,这相当于一个欧洲国家一年的总用电量。
不仅如此,AI技术的发展也对水资源产生了巨大需求。大型AI模型如ChatGPT背后的数据中心,需要大量的液冷设备进行散热。有研究显示,训练GPT-3模型在15天内就消耗了将近70万升的水。这使得AI技术不仅是一个“耗电狂魔”,更是一个“吞水巨兽”。
电力和水资源的巨大消耗,已经成为AI技术持续发展的关键“桎梏”。面对即将到来的能源挑战,全球科技巨头和研究者们正在积极寻找解决方案,以期在推动AI技术发展的同时,降低其对能源的依赖和消耗。这一问题不仅关乎科技进步,更关乎我们地球的可持续发展。