TensorFlow Lite 是一组工具,可帮助开发者在移动设备、嵌入式设备和 loT 设备上运行模型,以便实现设备端机器学习和人工智能。
开发工作流程如下: 1. 创建 TensorFlow Lite 模型(扩展名为.tflite文件) 模型文件是以FlatBuffer格式保存,这是一种高效可移植格式,与 TensorFlow 的协议缓冲区模型格式相比更适合边缘侧。 TensorFlow Lite 模型可以选择包含元数据,并在元数据中添加人类可读的模型说明和机器可读的数据,以便在设备推断过程中自动生成处理前和处理后流水线。 模型来源: a. 使用现成的模型 b.使用 TensorFlow Lite Model Maker创建模型 c. 将 TensorFlow 模型转换为 TensorFlow Lite 模型 (TensorFlow Lite Converter )
2. 运行推理 推理是指在设备上执行 TensorFlow Lite 模型,以便根据输入数据进行预测的过程。 不含元数据的模型:使用 TensorFlow Lite Interpreter API 包含元数据的模型:您可以使用 TensorFlow Lite Task 库以利用开箱即用的 API,也可以使用 TensorFlow Lite Support 库构建自定义的推断流水线。