Catégories
Start-up et applications

Google simplifie le kit SDK ML Kit et ajoute des API

Google a mis à la disposition des développeurs une version autonome de son Kit de développement logiciel Kit d'apprentissage, leur permettant de créer des applications assistées par IA directement sur les appareils. Le grand changement comprend deux nouvelles API qui permettent de créer des applications ML Kit connectées au Web sans nécessiter Firebase.

Google a fait ses débuts au ML Kit il y a deux ans. Depuis lors, quelque 25 000 applications sur Android et iOS dépendent désormais des fonctionnalités de ML Kit. Google estime que les changements révélés cette semaine simplifieront le processus de codage des applications ML Kit.

La première version de ML Kit dépendait fortement de Firebase. Google affirme que de nombreux développeurs ont demandé plus de flexibilité. C'est la principale raison pour laquelle Google dissocie le kit ML de Firebase. Les API intégrées au nouveau kit SDK ML ne nécessitent plus de projet Firebase, bien que les deux puissent toujours être utilisées ensemble si vous le souhaitez.

Les API de ML Kit sont destinées à aider les développeurs en ce qui concerne les domaines de la vision et du langage naturel. Cela signifie que ML Kit permet de numériser des codes-barres, de reconnaître du texte, de suivre et de classer des objets en temps réel, de traduire du texte, etc. Il est désormais entièrement axé sur l'apprentissage automatique sur appareil. Google dit que c'est rapide car il n'y a pas de latence réseau. Il peut effectuer des inférences sur un flux d'images ou de vidéos plusieurs fois par seconde. Cela fonctionne hors ligne. Toutes les API conservent des fonctionnalités quelle que soit la connexion réseau. La confidentialité est toujours au premier plan. Grâce au traitement local, il n'est pas nécessaire d'envoyer des données utilisateur à un serveur distant via le réseau.

Premier pas? Google suggère aux développeurs de migrer des API Firebase sur appareil vers le SDK ML Kit autonome. Les instructions sont disponibles ici. Une fois migrés, les développeurs trouveront plusieurs nouvelles fonctionnalités.

Par exemple, les développeurs peuvent réduire l'empreinte de leur application via les services Google Play. En ajoutant des API de détection de visage / contour au kit ML, les développeurs peuvent ajouter plus de fonctionnalités dans leur APK lors de la compilation.

Google a ajouté la prise en charge d'Android Jetpack Lifecycle à toutes les API. Cela signifie que les développeurs peuvent utiliser addObserver pour gérer automatiquement les démontages de l'API ML Kit lorsque les applications passent par des actions telles que des rotations d'écran. Cela simplifie l'intégration de CameraX, que Google estime que les développeurs devraient également envisager d'adopter tout au long de leurs applications ML.

Enfin, deux nouvelles API font partie du programme d'accès anticipé. Le premier est l'extraction d'entités, qui détecte les entités dans le texte et les rend exploitables. Pensez aux adresses, numéros de téléphone, etc. La seconde est la détection de pose, qui est une détection de pose à faible latence prenant en charge 33 points squelettiques, y compris les mains et les pieds. Les détails sont disponibles ici.

Google affirme que toutes les ressources du kit ML sont disponibles sur un site Web actualisé où les échantillons, la documentation d'assistance et les canaux communautaires sont facilement accessibles.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *