华山派(CV1812H开发板)是由TPU处理器及其生态合作伙伴共同推出的开源生态开发板。提供基于RISC-V的开源开发环境,实现基于视觉和深度学习场景的功能。该处理器集成了自主研发的第二代深度学习张量处理器(TPU)、自主研发的智能图像处理引擎(SmartISP)、硬件级高安全数据保护架构(Security)、语音处理引擎和H.264/265智能编解码技术。它还具有匹配的多媒体软件平台和IVE硬件加速接口,使深度学习的部署和执行更加高效、快速、方便。主流的深度学习框架,如Caffe、Pytorch、ONNX、MXNet和TensorFlow(Lite),可以很容易地移植到平台上。
课程的特点1.内容资料丰富完整,包括开发板硬件设计、SDK使用文档、平台开发指南、样例代码脚本等。
2.科学合理的学习路径。课程介绍开发板和基本例程,然后深入研究系统内部架构和代码学习,了解开发细节。最后介绍了充分利用开发板的实际工程,也可以作为用户自主开发的参考。
4.课程的长期维护。未来,我们将推出更多的开发课程,与开发者交流,共同成长。
课程内容
完成本课程后,学生将具备以下能力:
深度学习开发爱好者,在Linux开发方面有一定基础。
作为框架和硬件之间的桥梁,深度学习编译器可以实现一次性代码开发和重用各种计算能力处理器的目标。最近,算能也开源了自己开发的TPU编译工具——TPU-MLIR(Multi-LevelIntermediateRepresentation)。TPU-MLIR是一个面向深度学习处理器的开源TPU编译器。该项目提供了完整的工具链,将各种框架下预训练的神经网络转换为可在TPU中高效运行的二进制文件bmodel,以实现更高效的推理。本课程以实际实践为驱动,引导您直观地理解、实践、掌握智能深度学习处理器的TPU编译框架。
目前,TPU-MLIR项目已应用于算能开发的最新一代深度学习处理器BM1684X。结合处理器本身的高性能ARM内核以及相应的SDK,可以实现深度学习算法的快速部署。本课程将介绍MLIR的基本语法,以及编译器中各种优化操作的实现细节,如图形优化、int8量化、算子分割、地址分配等。
与其他编译工具相比,TPU-MLIR有几个优点
1.简单方便
通过阅读开发手册和项目中包含的示例,用户可以了解模型转换的过程和原理,并快速入门。此外,TPU-MLIR是基于当前主流编译工具库MLIR设计的,用户也可以通过它了解MLIR的应用。本项目提供了一套完整的工具链,用户可直接通过现有接口快速完成模型转换工作,无需适应不同的网络。
2.通用性
目前,TPU-mlir已经支持TFLite和onnx两种格式,这两种格式的模型可以直接转换为TPU可用的bmodel。如果不是这两种格式呢事实上,onnx提供了一套转换工具,可以将目前市场上主要的深度学习框架编写的模型转换为onnx格式,然后再进行bmodel转换。
3、精度与效率并存
在模型转换过程中,有时会失去精度。TPU-MLIR支持INT8对称和非对称量化,结合原开发公司的校准和tune技术,大大提高了性能,保证了模型的高精度。此外,TPU-MLIR还使用了大量的图优化和算子分割优化技术来保证模型的高效运行。
4.实现终极性价比,构建下一代深度学习编译器
5.完整的信息
课程包括中英文视频教学、文档指导、代码脚本等,详实丰富的视频资料详细应用指导清晰的代码脚本TPU-MLIR站在MLIR巨头的肩膀上打造,现在整个项目的所有代码都已经开源,免费向所有用户开放。
课程目录
本课程介绍了硬件电路的设计和基本环境的搭建,并提供了一些简单的开发示例和一些基本的深度学习示例。
Milk-VDuo是基于CV1800B的超小型嵌入式开发平台。它体积小,功能全面,配备双核,可以分别运行linux和rtos系统,并具有各种可连接的外设。
课程特点:
深度神经网络模型可以快速训练和测试,然后由行业部署,在现实世界中有效地执行任务。在小型、低功耗的深度学习边缘计算平台上部署这样的系统受到业界的高度青睐。本课程采用实践驱动的方法,引导你直观地学习、实践和掌握深度神经网络的知识和技术。
SOPHON深度学习微服务器SE5是采用SOPHON自主研发的第三代TPU处理器BM1684的高性能、低功耗边缘计算产品。INT8运算能力高达17.6TOPS,支持32路全高清视频硬件解码和2路编码。本课程将快速引导您了解SE5服务器的强大功能。通过本课程,您可以了解深度学习的基础知识并掌握其基本应用。
课程的特点
1.一站式服务
在SE5应用程序中遇到的所有常见问题都可以在这里找到。
2.系统的教学
它包括设置环境、开发应用程序、转换模型和部署产品,以及拥有镜像的实际环境等所有内容。
3.完整的材料
本课程包括视频教程、文档指南、代码脚本和其他综合材料。