英伟达掌舵人黄仁勋:人工智能计算的新纪元,就是要省钱!

CNET科技行者 中字

英伟达掌舵人黄仁勋,在GTC2017上再掀京城“AI风云”。

▲ NVIDIA CEO 黄仁勋

上场后“老黄”直接开怼,终于说出了人们憋在心中许久的结论——摩尔定律已终结。

▲ 两股力量推动计算领域的未来

但,NVIDIA的GPU计算为整个行业指出了前进的道路。

他指出,设计人员无法再创造出可以实现更高之灵系并行性的CPU架构;晶体管数每年增长50%,但CPU的性能每年仅增长10%。而NVIDIA的GPU弥补CPU的不足,加速处理高强度计算负载。

深度学习另一大“杀伤性武器”:CUDA

CUDA是一种革命性的计算架构,它将专用功能ASIC的性能与通用编程模型相结合,使开发人员实现多种算法。目前CUDA开发人员的数量在5年里增长了14倍超过60万,下载量达到180万。

▲ 适用于全球开发人员的NVIDIA AI

AI是NVIDIA CUDA GPU的“杀手级应用”,AI取得惊人进步。

阿里巴巴、百度和腾讯已在各自的云服务中采用NVIDIA Volta GPU。

华为、浪潮和联想已采用NVIDIA基于HGX的GPU服务器。

此外,NVIDIA还在为全球开发员人配置强大AI工具,全力推进“统一架构”CUDA GPU计算。

AI推理是下一个巨大挑战,重磅发布 TensorRT 3

AI推理平台必须具备可编程性,高性能,且支持庞大和复杂的网络。

随着智能机器的爆发性增长,AI会将智能注入到2000万台云服务器、上亿台汽车和制造机器人中。所以,AI推理平台必须可扩展,以解决海量计算的性能、功耗和成本需求。

▲ 宣布NVIDIA TensorRT 3

于是,老黄又来搞事了。

宣布NVIDIA TensorRT 3,全球首款可编程AI推理加速器。

TensorRT是一款适用于CUDA GPU的优化神经网络编译器,它可利用CUDA深度学习指令集创建运行时。从云、数据中心、PC、汽车到机器人,TensorRT皆能在NVIDIA全系列平台便宜出最优运行时。

▲ 运行在 V100上的 TensorRT在处理图像时可实现7ms的延时

运行的Volta上的TensorRT3在图像分类方面,比最快的CPU还要快40倍,在语言翻译方面则要快140倍。

搭配 Tesla V100 GPU 加速器的 TensorRT 每秒能够识别多达 5700 张图片,而如今所用的 CPU 则每秒仅能识别 140 张图片。

AI城市是一个巨大的AI推理挑战,它可能需要使用大约1000万个Tesla V100 GPUs来监控10亿台摄像头。

▲ NVIDIA AI城市-助力中国建设更智慧、更安全的城市

NVIDIA将携手海康威视共建AI城市。此外,大华、华为和阿里巴巴都提供基于NVIDIA平台的AI视频解决方案。

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存