Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

TensorFlow diventa Lite per il mobile

Link copiato negli appunti

TensorFlow, ad oggi uno dei più noti progetti Open Source per il machine learning, è finalmente disponibile anche per il mobile grazie alla variante TensorFlow Lite oggi accessibile sotto forma di anteprima per gli sviluppatori. Si tratta di una versione studiata per garantire maggiore leggerezza e velocità rispetto alla release principale, ereditando nel contempo le funzionalità integrate in TensorFlow grazie alla Mobile API già disponibile dalla prima stabile della piattaforma.

Utilizzabile per implementare soluzioni basate sul machine learning sia nei dispositivi mobili che nei device embedded, TensorFlow Lite offre supporto per i sistemi operativi più diffusi, a cominciare da Android e iOS. Trattandosi di una versione appositamente ottimizzata per il mobile, il lavoro necessario per la sua implementazione è stato concentrato soprattutto sull'alleggerimento del package, la velocizzazione dei tempi di inizializzazione dei processi, il miglioramento dei tempi di caricamento e l'accelerazione hardware.

E' disponibile il supporto per l'interfaccia di programmazione dei network neurali di Android, di conseguenza il target della piattaforma sono in particolare i dispositivi più recenti che integrano hardware appositamente concepito per lavorare con i modelli di machine learning. Viene comunque garantita retrocompatibilità con i device che non forniscono un livello di accelerazione hardware adeguato, questo in modo da ottimizzare le risorse erogate dal processore.

image2

Per quanto riguarda il discorso più strettamente legato allo sviluppo, TensorFlow Lite consente di accedere ad un'API Java che funge da contenitore per l'interfaccia C++ del Robottino Verde; quest'ultima ha il compito di caricare i file che contengono i modelli e di richiamare l'interprete, esso esegue infine il modello sulla base di operatori il cui caricamento verrà definito dallo sviluppatore. Due i vantaggi:

  1. l'API C++ è cross-platform e può essere utilizzata in modo simile anche su iOS.
  2. Richiamare tutti gli operatori disponibili comporta un carico pari ad appena 300 Kb conto gli 1.5 Mb di TensorFlow.

Tra i modelli supportati troviamo MobileNets, appositamente pensato per garantire il massimo livello di precisione possibile anche in assenza di configurazioni caratterizzate da risorse elevate, e Smart Reply, un modello conversazionale già ampiamente utilizzato in Android Wear.

Via TensorFlow Lite

Ti consigliamo anche