您现在的位置是:首页 >区块链 > 2019-06-14 14:18:30

AI筹集了1300万美元用于有效地训练AI模型

AI模型很棒 - 毕竟,它们是从语音助理到数据中心冷却系统的核心。但不是 很好的是微调它们所需的时间和精力。由生产算法摄取的数据集包含数百(或数百万)个样本,并且需要长达数周的强大PC来处理。新技术有望加速模型培训,但并非所有技术都可以推广。

正是这一长期挑战激发了Omri Geller,Ronen Dar和Meir Feder创立Run:AI,这是一家开发自动加速AI开发的平台的软件开发商。今天,S Capital和TLV Partners领导的1亿美元A系列资金从隐形状态中脱颖而出,在300万美元的种子轮融资之后将其总额提升至1300万美元,Geller表示将用于进一步开发该公司的产品。

“传统计算使用虚拟化来帮助许多用户或流程有效地共享一个物理资源; 虚拟化试图慷慨,“他补充道。“但深度学习工作量本质上是自私的,因为它需要相反的情况:它需要单个工作负载的多个物理资源的全部计算能力,而不需要保留任何东西。”

运行:AI的软件,Geller描述为“低级”和“接近金属”,创建了一个抽象层,分析AI工作负载的计算特性,并使用基于图形的算法来最大限度地减少瓶颈,有效地优化工作负载更容易执行。它还以最大化所有可用计算资源的方式分配它们,同时考虑网络带宽,计算资源,成本,数据管道和大小等因素。

Geller表示,运行:AI在数学上将“模型”分解成多个并行运行的片段,这种方法具有减少内存使用量的额外好处。这反过来使得受硬件限制(主要是图形卡存储器)约束的模型能够畅通无阻地运行。“传统计算软件无法满足深度学习工作负载的资源需求,”他说。

达尔和盖勒于2018年在特拉维夫大学一起学习Feder之后成立了Run:AI,Feder专门研究信息理论并曾领导过两家初创公司的退出。Dar是贝尔实验室的博士后研究员,也是Apple,Anobit和英特尔的研发和算法工程师,而Geller是以色列军方精英部门的成员,负责领导大型项目和部署。

他们不是第一个推出可以动态优化算法的技术的市场 - 安大略省创业公司DarwinAI采用一种称为生成合成的技术来摄取AI模型并吐出高度优化的紧凑版本。但是,一位投资者 - TLV Partners的Rona Segev-Gal - 对硬件,并行计算和深度学习方面的丰富专业知识深信不疑Run:AI的团队提出了这个问题。

“在多台机器上执行深层神经网络工作负载是一个不断变化的目标,需要根据资源的可用性重新计算每个模型和迭代,”她说。“运行:AI确定了运行深度学习培训工作量的最有效和最具成本效益的方法。近年来我们见过很多AI公司,但Omri,Ronen和Meir的做法让我们大吃一惊。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关文章

点击排行

热门推荐