您正在访问: 网站首页 >> 资讯中心 >> 新品发布 >> 正文

亚马逊推出用于人工智能部署的AWS Inferentia芯片

文章来源:创业家 作者:【*】 点击:次 时间:2018/12/3 10:39:11

亚马逊宣布推出Inferentia,这是由AWS设计的芯片,专门用于部署带有GPU的大型AI模型,该芯片将于明年推出。

Inferentia将与TensorFlow和PyTorch等主要框架协同工作,并与EC2实例类型和亚马逊的机器学习服务SageMaker兼容。

“你将能够在每个芯片上获得数百个TOPS; 如果你愿意的话,你可以将它们捆绑在一起以获得数千个TOPS,“AWS首席执行官Andy Jassy今天在年度re:Invent会议上表示。

Inferentia还将与Elastic Inference合作,这是一种加速使用GPU芯片部署AI的方法,这也是今天宣布的。

弹性推理适用于1到32 teraflops的数据范围。Inferentia检测主要框架何时与EC2实例一起使用,然后查看神经网络的哪些部分将从加速中受益最多; 然后将这些部分移动到弹性推理以提高效率。

Jassy说,今天推出AI模型所需的两个主要流程是培训和推理,推理占了近90%的成本。

“我们认为运营成本可以通过Elastic Inference节省75%的成本,如果你将Inferentia放在其上,这是成本的另一个10倍的提升,所以这是一个重大的改变游戏规则,这两个推出推断我们的客户,“他说。

Inferentia的发布是在周一首次亮相的一款芯片之后由AWS专门用于执行通用工作流程。

Inferentia和Elastic Inference的首次亮相是今天发布的几个AI相关公告之一。今天还宣布:推出AWS市场,供开发人员销售他们的AI模型,以及DeepRacer League和AWS DeepRacer汽车的推出,该 汽车在模拟环境中使用强化学习训练的AI模型上运行。

今天预览中还提供了许多不需要预先知道如何构建或训练AI模型的服务,包括Textract用于从文档中提取文本,Personalize用于客户建议,以及Amazon Forecast,这是一种生成私有预测模型的服务。


< 1 >
关注有惊喜!
中国工业电器网:此内容转载于合作媒体或互联网其它网站,中国工业电器网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述
新闻、技术文章投稿QQ:928246603 邮箱:news@cnelc.com

网友评论已有人参与评论

用户登录  注册新用户  忘记密码?

本站声明:严禁任何单位和个人模仿、转载、抄袭及冒名中国工业电器网(cnelc.com)

中国工业电器网 | 诚聘英才 | 关于我们 | 会员服务 | 广告服务| 意见/业务 | 帮助中心 | 在线投稿 | 友情链接 | 联系我们 |网站地图

客服:点击这里给我发消息展会合作:点击这里给我发消息 会员合作:点击这里给我发消息 广告合作:点击这里给我发消息 战略合作:点击这里给我发消息 新闻投稿:点击这里给我发消息

中国工业电器网服务热线:400-688-6377 合作电话:021-39983999 传真:021-39983888 邮编:201812 信箱:cn@cnelc.com新闻投稿邮箱:news@cnelc.com

上海总公司地址:上海 金园一路999号(中国工业电器大厦) 法律顾问:浙江海昌律师事务所 江律师

增值电信业务经营许可证:沪B2-20180642

上海易电网络科技有限公司 版权所有 2012-2020

沪ICP备10003932号-15