互联网分析:谷歌新的种子RL框架减少了80%的人工智能模型培训成本

导读 互联网是高科技的产物,是历史发展、社会进步、人类智慧的结晶;是人类迄今所拥有的容量最大、内容最广、传递速度最快的信息中心。全球每天
互联网是高科技的产物,是历史发展、社会进步、人类智慧的结晶;是人类迄今所拥有的容量最大、内容最广、传递速度最快的信息中心。全球每天有四亿人使用互联网,上网人数占世界人口的百分之6.互联网为我们了解时事、学习知识、与人沟通、休闲娱乐等提供了便捷的条件,接下来这篇文章给大家说说互联网科技的一角。

谷歌的研究人员已经开放了一个新的框架,可以在数千台机器上扩大人工智能模型的培训。 谷歌新的种子RL框架减少了80%的人工智能模型培训成本

这是一个很有前途的发展,因为它应该使人工智能算法训练能够以每秒数百万帧的速度进行,同时将这样做的成本降低80%,谷歌在一篇研究论文中指出。

这种削减可能有助于为那些以前无法与AI领域的谷歌(Google)等大公司竞争的初创企业提供更好的竞争环境。 事实上,在云中训练复杂的机器学习模型的成本惊人地昂贵。 谷歌新的种子RL框架减少了80%的人工智能模型培训成本

Synced最近的一份报告发现,华盛顿大学花费了2.5万$成本来训练其Grover模型,该模型用于检测和生成假新闻。 同时,OpenA I每小时支付$256英镑来训练它的GPT-2语言模型,而谷歌自己则花费了大约6,912$来训练它的BERT模型来完成自然语言处理任务。

SEED RL是建立在TensorFlow2.0框架之上的,通过利用图形处理单元和张量处理单元的组合来集中模型推理。 然后使用训练模型的学习者组件集中执行推理。 谷歌新的种子RL框架减少了80%的人工智能模型培训成本

目标模型的变量和状态信息保持局部,并在过程的每一步向学习者发送对它们的观察。 SEED RL还使用基于开源通用RPC框架的网络库来最小化延迟。

谷歌的研究人员说,SEED RL的学习者组件可以在数千个核心上进行缩放,而在环境中采取步骤和在模型上运行推理以预测下一个动作之间迭代的参与者数量可以扩展到数千台机器。

SEED RL架构概述. 与IMPALA体系结构不同,参与者只在环境中采取行动。 推理由学习者在加速器上使用来自多个参与者的批次数据集中执行。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章