自定义模型

如果您是一位经验丰富的ML开发人员,而且ML Kit的预训练的模型不能满足您的需求,您可以通过ML Kit使用定 的TensorFlow Lite模型。

使用Firebase托管您的TensorFlow Lite模型或将其与您的应用程序打包在一起。然后,使用ML Kit SDK来使用您的自定义模型的最佳版本构建应用。如果您使用Firebase托管您的模型,ML Kit会自动更新您的用户的所用版本。

iOS Android

核心功能

TensorFlow Lite模型托管 使用Firebase托管您的模型,以减少应用程序的大小,并确保您的应用程序始终使用您的模型的最新版本
设备端的ML推断 通过使用ML Kit SDK运行您的自定义TensorFlow Lite模型,在iOS或Android应用程序中执行推理。该模型可以与云中托管的应用程序捆绑在一起,或者两者兼而有之。
自动模型后备 指定多个模型来源; 当云托管模型不可用时,请使用本地存储的模型
自动模型更新 配置您的应用程序自动下载新版本模型的条件:用户设备空闲时,正在充电或具有Wi-Fi连接

实现步骤

训练您的TensorFlow模型 使用TensorFlow构建和训练定制模型。或者,重新训练现有模型,解决类似于您想要实现的问题。请参阅TensorFlow Lite 开发人员指南
将模型转换为TensorFlow Lite 使用TensorFlow优化转换器(TOCO),通过freezing gragh的办法。将模型从标准TensorFlow格式转换为TensorFlow Lite格式。请参阅TensorFlow Lite 开发人员指南
使用Firebase托管您的TensorFlow Lite模型 可选:当您使用Firebase托管您的TensorFlow Lite模型并将ML Kit SDK包含在您的应用程序中时,ML Kit可让您的用户随时了解最新版本的模型。您可以将ML Kit配置为在用户的设备闲置或充电或具有Wi-Fi连接时自动下载型号更新。
使用TensorFlow Lite模型进行推断 在您的iOS或Android应用中使用ML Kit的自定义模型API来执行Firebase托管或应用捆绑的模型的推理。