得益于公司自成立以来一直专注于GPU以及在CUDA生态系统中持续十年的坚持,NVIDIA终于在最近几年达到顶峰,这主要是由于AI时代的爆发。

尤其是在人工智能培训市场上,到目前为止,英伟达的GPU尚未遇到任何可能威胁到它们的挑战者。

但是他们并没有就此止步。

收购Mellanox之后,Nvidia将目光投向Arm,希望扩大公司的目标市场。

同时,NVIDIA还内部投资于软件的布局,例如转移学习,这是他们近年来关注的焦点。

根据Nvidia的说法,这项技术正是他们为当前的“痛点”做出的解决方案。

人工智能。

从相关报告中我们可以看到,人工智能已经进入了各行各业。

同时,我们还意识到,从头开始开发AI应用程序需要一个训练过程,以得出模型和推理。

但是,由于当今有许多应用程序,如果所有开发人员和初创公司都需要从头开始创建模型,那么它不仅会费时,费力,而且成本很高。

这使得可以进行“迁移学习”。

寻找机会。

所谓的迁移学习是指将经过相关任务训练的部分模型重用为新模型,从而大大减少了对大量计算资源的需求。

具体而言,可以从现有的神经网络中提取学习的特征,并通过传递来自现有的神经网络的权重来传递这些学习的特征。

英伟达的TransferLearningToolkit(Transfer Learning Toolkit,TLT)就是其中之一。

据报道,NVIDIA Transfer Learning Toolkit(基于Python的工具包提供了大量的预训练模型和一系列工具,可将流行的网络体系结构适应开发人员自己的数据,并可进行训练,调整,修整和调整)。

导出模型以进行部署。

当第一代工具包于2018年发布时,NVIDIA还表示该解决方案具有许多预先训练和优化的特定于领域的DNN,这些DNN预先打包在其中;其中有一个计算机的对象分类应用示例视觉上的检测和检测;在异构的多GPU环境中,易于执行ModelAdaptation,易于重新训练;您可以轻松修改配置文件,添加新类别,新功能并压缩模型大小;可以轻松部署ModelExportAPI在NVIDIA用于智能视频分析(IVA)应用程序的DeepStreamSDK3.0上,ModelExportAPI可以在医疗保健相关应用程序的Clara平台上部署该模型。

第一代产品NVIDIA的TLT受到了开发人员的热烈欢迎。

该公司还进行了固定投资,并且最近推出了许多可以直接用于生产的经过预先训练的模型,以及转移学习工具包(TransferLearningToolkit,TLT)3.0开发人员beta,以及DeepStreamSDK5.1。

据报道,这版本包含一系列新的预训练模型。

这些模型具有支持对话式AI应用程序的创新功能,并可以提供更强大的解决方案,以加快开发人员从培训到部署的整个过程。

Nvidia表示,预训练模型和TLT3.0(开发者测试版)包括以下主要亮点:1.新的视觉AI预训练模型:车牌检测和识别,心率监测,手势识别,视力估计,情绪识别,面部检测,面部特征点估计; 2.通过自动语音识别(ASR)和自然语言处理(NLP)的预训练模型支持对话式AI用例。

3.选择流行的网络架构进行训练,例如EfficientNet,YoloV4和UNET; 4.改进的PeopleNet模型可以检测困难的场景,例如坐着的人和旋转/变形的物体5; TLT启动器6,用于促进兼容的容器初始化;通过第三代张量内核支持NVIDIA Ampere GPU,以提高性能。

“感谢TLT,您可以使用针对常见AI任务开发的NVIDIA多用途生产级别模型,也可以使用100多种神经网络架构组合(例如ResNet,VGG,FasterRCNN,RetinaNet和YOLOv3 / v4)以及使用您自己的数据微调特定用例的模型。

所有模型都可以从NGC获得”。

英伟达强调。

人工智能行业专家吴恩达教授在NIPS2016演讲中说:“在监督学习之后,转移学习将引领机器学习技术的下一波商业化。

“由此,我们可以看到Nvidia再次走上了AI的舞台。