文件名称:一:设备上的神经引擎
文件大小:48.91MB
文件格式:ZIP
更新时间:2024-02-21 07:25:04
neural-network compiler runtime optimization on-device-ai
ONE (设备上的神经引擎) 高性能的设备上神经网络推理框架。 目标 该项目ONE旨在提供一种高性能的设备上神经网络(NN)推理框架,该框架在处理器(例如CPU,GPU,DSP或NPU)上执行给定NN模型的推理。 我们开发了一个运行时,该运行时可在基于Linux内核的OS平台(如Ubuntu,Tizen或Android)上运行,并提供了一个编译器工具链,以支持在运行时以统一形式使用多种Tensorflow或PyTorch等各种NN训练框架创建的NN模型。 总览 入门 有关贡献,请参阅我们的。 您还可以找到各种方法文档。 功能要求 您可以建议开发ONE尚不可用的功能。 到目前为止所需的功能可以在列表中进行确认。 如果您想要的功能在列表中, :thumbs_up: 到问题的主体。 具有最多功能 :thumbs_up: 放在列表的顶部。 添加新功能时,我们将使用此参考来优先考虑它们。 当然,最好添加一条额外的注释来详细描述您的请求。 对于未列出的功能,请。 维护人员迟早会标记FEATURE_REQUEST标签并出现在列表中。 我们希望最常见的功能请求之一是操作员内核实现。 提