README.md

    Tengine Lite

    GitHub license

    简介

    Tengine LiteOPEN AI LAB 主导开发,该项目实现了深度学习神经网络模型在嵌入式设备上快速高效部署。为实现众多 AIoT 应用中跨平台部署,本项目基于原有 Tengine 项目使用 C 语言进行重构,针对嵌入式设备资源有限的特点进行深度框架裁剪。同时采用完全分离的前后端设计,利于 CPU、GPU、NPU 等异构计算单元快速移植和部署。同时兼容 Tengine 框架原有 API 和 模型格式 tmfile,降低评估、迁移成本。

    Tengine Lite 核心代码由 4 个模块组成:

    • dev: NN Operators 后端模块,当前提供 CPU 代码,后续逐步开源 GPU、NPU 参考代码;
    • lib:框架核心部件,包括 NNIR、计算图、硬件资源、模型解析器的调度和执行模块;
    • op:NN Operators 前端模块,实现 NN Operators 注册、初始化;
    • serializer:模型解析器,实现 tmfile 格式的网络模型参数解析。

    架构简析

    Tengine Lite 架构

    License

    技术讨论

    项目简介

    Tengine是OPEN AI LAB推出的开放的边缘AI推理框架,致力于解决AIoT产业链碎片化问题,加速AI产业化落地。Tengine为了解决AIoT应用落地问题,重点关注嵌入式设备上的边缘AI计算推理,为海量AIoT应用和设备提供高性能AI推理的技术支持。

    发行版本

    当前项目没有发行版本

    贡献者 25

    全部贡献者

    开发语言

    • C 68.4 %
    • C++ 19.5 %
    • Assembly 8.8 %
    • CMake 1.9 %
    • Python 1.3 %