导读 随着人工智能的快速发展,对于计算能力的需求也正在快速增加,英伟达AI处理器H100目前在全球市场都非常畅销。但是每一块维持100的峰值功耗就达到700瓦
随着人工智能的快速发展,对于计算能力的需求也正在快速增加,英伟达AI处理器H100目前在全球市场都非常畅销。但是每一块维持100的峰值功耗就达到700瓦,已经超过了普通美国家庭的平均功耗。随着大量的H100部署到全球各地,专家预测其总功耗将会和一座美国大城市的用电量不相上下,甚至还会超过一些欧洲的小国家。法国施耐德电气公司在2022年的10月份就曾做出预测,用于AI应用的数据中心总功耗目前已经和塞浦路斯全国的用电量相当。
根据相关的数据显示,英伟达预计到2024年H100的销量将会在150万到200万块之间,按照峰值功率每块700瓦计算。这些芯片的总耗电量将会是非常惊人的。不过专家表示,虽然说H100的功耗非常高,但是AI和高性能计算的GPU效率也在不断的提高。英伟达的下一代Blackwell架构的B100芯片的功耗可能会超过H100的功耗。这也意味着这款芯片将会为AI人工智能提供更高的性能来减少更少的单位功耗完成更多的工作。随着全球AI技术的快速发展,如何能够在平衡算力和能耗之间做出一个平衡点,这也将成为目前需要解决的一个问题。版权声明:本文由用户上传,如有侵权请联系删除!