Lansarea sistemului de învățare automată TensorFlow 2.0

Introdus lansare semnificativă a platformei de învățare automată TensorFlow 2.0, care oferă implementări gata făcute ale diverșilor algoritmi de învățare automată profundă, o interfață simplă de programare pentru construirea de modele în Python și o interfață de nivel scăzut pentru limbajul C++ care vă permite să controlați construcția și execuția graficelor computaționale. Codul de sistem este scris în C++ și Python și distribuit de sub licența Apache.

Platforma a fost dezvoltată inițial de echipa Google Brain și este folosită în serviciile Google pentru recunoașterea vorbirii, identificarea fețelor în fotografii, determinarea asemănării imaginilor, filtrarea spam-ului în Gmail, selecţie știri în Știri Google și organizarea traducerii ținând cont de sens. Sistemele de învățare automată distribuite pot fi create pe hardware standard, datorită suportului încorporat al TensorFlow pentru distribuirea calculelor pe mai multe procesoare sau GPU.

TensorFlow oferă o bibliotecă de algoritmi gata de calcul numeric implementați prin grafice de flux de date. Nodurile din astfel de grafice implementează operații matematice sau puncte de intrare/ieșire, în timp ce marginile graficului reprezintă matrice de date multidimensionale (tensori) care curg între noduri.
Nodurile pot fi alocate dispozitivelor de calcul și executate asincron, procesând în paralel toți tesorii potriviți pentru ei simultan, ceea ce face posibilă organizarea funcționării simultane a nodurilor într-o rețea neuronală prin analogie cu activarea simultană a neuronilor din creier.

Accentul principal în pregătirea noii versiuni a fost pe simplificare și ușurință în utilizare. unele inovații:

  • Un nou API de nivel înalt a fost propus pentru construirea și formarea modelelor Keras, care oferă mai multe opțiuni de interfață pentru construirea de modele (secvențial, funcțional, subclasare) cu capacitatea de a implementare imediată (fără pre-compilare) și cu un mecanism simplu de depanare;
  • S-a adăugat API tf.distribuire.Strategie pentru organizare învăţare distribuită modele cu modificări minime ale codului existent. Pe lângă posibilitatea de a distribui calculele peste tot mai multe GPU-uri, suport experimental este disponibil pentru împărțirea procesului de învățare în mai multe procesoare independente și capacitatea de a utiliza cloud TPU (Unitate de procesare a tensorilor);
  • În locul unui model declarativ de construire a unui graf cu execuție prin tf.Session, este posibil să scrieți funcții obișnuite în Python, care, folosind un apel la tf.function, pot fi convertite în grafice și apoi executate de la distanță, serializate sau optimizate pentru performanță îmbunătățită;
  • Traducător adăugat Autograf, care convertește un flux de comenzi Python în expresii TensorFlow, permițând ca codul Python să fie utilizat în cadrul funcțiilor tf.function-decorated, tf.data, tf.distribute și tf.keras;
  • SavedModel unifică formatul de schimb de model și adaugă suport pentru salvarea și restaurarea stărilor modelului. Modelele compilate pentru TensorFlow pot fi acum utilizate în TensorFlow Lite (pe dispozitive mobile), TensorFlow JS (în browser sau Node.js), Servire TensorFlow и TensorFlow Hub;
  • API-urile tf.train.Optimizers și tf.keras.Optimizers au fost unificate; în loc de compute_gradients, a fost propusă o nouă clasă pentru calcularea gradienților Bandă gradient;
  • Performanță crescută semnificativ atunci când utilizați GPU.
    Viteza de antrenament a modelului pe sisteme cu GPU-uri NVIDIA Volta și Turing a crescut de până la trei ori;

  • Efectuate Curățare majoră a API-ului, multe apeluri redenumite sau eliminate, suportul pentru variabile globale în metodele de ajutor a fost oprit. În loc de tf.app, tf.flags, tf.logging, este propus un nou API absl-py. Pentru a continua să utilizați vechiul API, modulul compat.v1 a fost pregătit.

Sursa: opennet.ru

Adauga un comentariu