摘要: 英特尔神经计算棒2采用英特尔MovidiusX VPU提供业界领先的性能、功率和功率。神经计算支持OpenVINO,这是一个加速解决方案开发和简化部署的工具包。Neural Compute Stick 2提供即插即用的简单性,支持通用框架和...
英特尔神经计算棒2采用英特尔MovidiusX VPU提供业界领先的性能、功率和功率。神经计算支持OpenVINO,这是一个加速解决方案开发和简化部署的工具包。Neural Compute Stick 2提供即插即用的简单性,支持通用框架和开箱即用的示例应用程序。使用任何带有USB端口的平台来创建原型,并在不依赖云计算的情况下进行操作。英特尔NCS 2每秒可执行4万亿次操作,性能比前几代提高了8倍。
提高生产力
以低成本减少原型或调整具有通用硬件处理能力的神经网络的时间
增强的硬件处理能力与原来的英特尔Movidius神经计算棒
利用16核而不是12核加上一个神经计算引擎,一个专门的深度神经网络加速器
根据网络的不同,深度神经网络推理的性能增益可达8倍
可负担性加速了深度神经网络的应用
改变AI开发工具包的体验
即插即用简单
负担得起的价格点
支持通用框架,包括开箱即用和快速开发
发现效率
每瓦特的感知性能将机器视觉带到新的领域
在不依赖云计算连接的情况下“在边缘”运行
深度学习原型现在可以在笔记本电脑、单板机或任何带有USB端口的平台上使用
易于获取和负担得起-利用更多的性能每瓦和高效率的无风扇设计
结合IntelMovidiusMyriadX VPU的硬件优化性能和IntelOpenVINO发行版工具包,加速基于深度神经网络的应用程序
它是班里第一个使用神经计算引擎的——一个专用的硬件加速器
16个强大的处理核(称为SHAVE核)和超高吞吐量智能内存结构使英特尔Movidius Myriad X VPU成为设备上深度神经网络和计算机视觉应用领域的行业领导者
在芯片上具有一个全新的深度神经网络(DNN)推理引擎
更简单的原型通用性
OpenVINO工具包的Intel版本简化了开发体验
在英特尔神经计算棒2上建立原型,然后将你的深度神经网络部署到基于英特尔Movidius Myriad X vpu的嵌入式设备上
简化工作原型的路径
跨英特尔硬件扩展工作负载并最大化性能
健壮的、Intel发布的OpenVINO工具包能够简化模拟人类视觉的应用程序和解决方案的移植和部署
英特尔发布的OpenVINO工具包简化了多平台计算机视觉解决方案的开发——提高了深度学习的性能
现在,开发跨英特尔加速技术套件的异构执行应用程序变得更加容易。一次开发并跨英特尔CPU, VPU,集成图形或FPGA部署。
如果需要,用户可以实现自己的定制层,并在CPU上执行这些层,而模型的其余部分则在VPU上运行
社群二维码
关注“华强商城“微信公众号
Copyright 2010-2023 hqbuy.com,Inc.All right reserved. 服务热线:400-830-6691 粤ICP备05106676号 经营许可证:粤B2-20210308