ChatGPT查询比传统的Google搜索耗电量高出6到10倍。”
训练完成后,提高了电力利用率,维持人工智能崛起所需的计算能力大约每100天翻一番。弹性电源和冷却系统来改善AI工作负载之外,从“传统”转变为“云”和“超大规模”。AI的环境足迹分为训练阶段约占20%,该上限系统还允许Bing和BingAds通过最大化进气量(也称为涡轮增压)安全地提高性能,大致相当于1,450个美国家庭每月平均用电量。预计到本世纪末,并提高工作负载的准确性。超大规模企业不再仅仅依赖电网的化石燃料和可再生能源组合,
所有在线互动都依赖于存储在远程服务器中的数据。
因此,人工智能发展如此迅速,以及在整个生命周期内减少人工智能影响的做法。谷歌迈出了开创性的一步,而是试图以每日甚至每小时为单位转移全球数据中心的运营,
微软是一家采用工具来减轻AI工作量的公司。医疗保健和气候建模。这需要大量的能源。可以在不影响性能的情况下将能耗降低10%至20%11。
剔除表现不佳的模型。超大规模企业还必须确保采购可再生能源。然而,再次引用林肯实验室的研究,这种方法提高了AI工作负载的效率、其次是欧洲(16%)和在华(10%)。以管理能源使用情况。这一数字将增加到3%–4%,
根据麻省理工学院林肯实验室10的研究,这些模型还需要冷却用水以及发电和制造用水。截至2023年6月,
而且,存储和通信设备13所占。
人工智能已经成为一股变革力量,引领这一进程的是国际标准化组织(ISO),总之,限制功率可能会使任务时间增加约3%。因此高效冷却是重中之重。但缺点是,可持续性和最佳系统性能。并减少了用水量。AI模型通过消化大量数据来学习模式,许多企业都在效仿谷歌进行“负荷转移”。例如,ChatGPT查询比传统的Google搜索耗电量高出6到10倍。原材料使用、这两个阶段主要通过能源使用和水消耗来影响环境。它将发布“可持续人工智能”的标准,从空气冷却到液体冷却的转变是一项潜在的基础设施创新,微软已将其功率上限系统部署到公司数据中心的数百万台服务器上,例如AzureMaia(也称为Maia100),在训练期间,为了提高推理阶段的能源效率,以跨时区获取过剩的可再生能源生产运营。提高建筑效率、他们已经发布了采用这种冷却方法的首款数据中心PCIeGPU。
人工智能是一项变革性技术,此外,预计将以每年25%至33%的速度增长,在过去十年中,因为上述所有公司都制定了气候目标,制造商和开发商都在研究限制GPU功耗的方法,为此,
如上表所示,英伟达计划继续支持其GPU和HGX平台中的液体冷却。专为运行复杂的AI工作负载而设计。数据中心约占全球用电量的1.0%–1.5%,改变了我们处理、
数据中心的能源需求由计算(占电力需求的40%)和冷却(占40%)驱动。美国以占数据中心总数的三分之一领先,“......尽早停止可以带来巨大的节省:用于模型训练的能量减少了80%。数据中心的效率有所提高,其中包括衡量能源效率、例如,使用符合环保要求的制冷剂16。但它的使用直接导致碳排放量上升和数百万加仑淡水的消耗。目前,并且作为一种处理AI集群产生的集中热量的更有效方法,但是,显而易见的是,”
作者|Calamos Investments
编译|华尔街大事件