Verëffentlechung vum Maschinn Léiersystem TensorFlow 2.0

Agefouert bedeitend Verëffentlechung vun der Maschinnléierplattform TensorFlow 2.0, déi fäerdege Implementatioune vu verschiddenen Deep Machine Learning Algorithmen ubitt, eng einfach Programméierungs-Interface fir Modeller am Python ze bauen, an e Low-Level Interface fir d'C++ Sprooch, déi Iech erlaabt d'Konstruktioun an d'Ausféierung vu Berechnungsgrafiken ze kontrolléieren. De Systemcode gëtt an C++ a Python a verdeelt duerch ënner der Apache Lizenz.

D'Plattform gouf ursprénglech vum Google Brain Team entwéckelt a gëtt a Google Servicer fir Riederkennung benotzt, Gesiichter a Fotoen z'identifizéieren, d'Ähnlechkeet vu Biller ze bestëmmen, Spam a Gmail auszefilteren, Auswiel Neiegkeeten op Google News an d'Organisatioun vun Iwwersetzung mat der Bedeitung berücksichtegt. Verdeelt Maschinnléieresystemer kënnen op Standard Hardware erstallt ginn, dank TensorFlow's agebaute Support fir Berechnungen iwwer verschidde CPUs oder GPUs ze verdeelen.

TensorFlow bitt eng Bibliothéik vu fäerdege numeresche Berechnungalgorithmen, déi duerch Datenflossgrafiken ëmgesat ginn. Noden an esou Grafike implementéieren mathematesch Operatiounen oder Input / Output Punkten, während d'Kante vun der Grafik multidimensional Datearrays (Tensoren) representéieren déi tëscht Noden fléissen.
Node kënnen un Informatikgeräter zougewisen ginn an asynchron ausgefouert ginn, gläichzäiteg all Thesore gëeegent fir si gläichzäiteg veraarbecht ginn, wat et méiglech mécht déi simultan Operatioun vun Wirbelen an engem neurale Netzwierk duerch Analogie mat der simultaner Aktivatioun vun Neuronen am Gehir ze organiséieren.

Den Haaptfokus bei der Virbereedung vun der neier Versioun war op Vereinfachung an einfacher Benotzung. E puer Innovatiounen:

  • En neien High-Level API gouf proposéiert fir Modeller ze bauen an ze trainéieren Keras, déi verschidde Interfaceoptioune fir Modeller bauen (Sequenziell, Funktionell, Ënnerklasséierung) mat der Fäegkeet fir direkt Ëmsetzung (ouni Pre-Kompilatioun) a mat engem einfachen Debugging Mechanismus;
  • Zousätzlech API tf.distribute.Strategie fir Organisatioun verdeelt Léieren Modeller mat minimale Ännerunge vum existente Code. Nieft der Méiglechkeet vun Verbreedung Berechnungen iwwer méi GPUs, experimentell Ënnerstëtzung ass verfügbar fir de Léierprozess an e puer onofhängeg Prozessoren opzedeelen an d'Fäegkeet Cloud ze benotzen TPU (Tensor Veraarbechtung Eenheet);
  • Amplaz vun engem deklarativen Modell fir eng Grafik mat Ausféierung duerch tf.Session ze konstruéieren, ass et méiglech gewéinlech Funktiounen am Python ze schreiwen, déi, mat engem Opruff un tf.function, a Grafike ëmgewandelt kënne ginn an dann op afstand ausgefouert, serialiséiert oder optimiséiert ginn. fir verbessert Leeschtung;
  • Iwwersetzer dobäigesat AutoGraph, deen e Stroum vu Python Kommandoen an TensorFlow Ausdréck konvertéiert, wouduerch Python Code an tf.function-decorated, tf.data, tf.distribute an tf.keras Funktiounen benotzt gëtt;
  • SavedModel vereenegt d'Modellaustauschformat a füügt Ënnerstëtzung fir d'Späicheren an d'Restauratioun vum Modellzoustand. Modeller kompiléiert fir TensorFlow kënnen elo benotzt ginn TensorFlow Lite (op mobilen Apparater), TensorFlow JS (am Browser oder Node.js), TensorFlow Serving и TensorFlow Hub;
  • D'tf.train.Optimizers an tf.keras.Optimizers APIe goufen vereenegt; amplaz compute_gradients, eng nei Klass gouf proposéiert fir Gradienten ze berechnen Gradient Tape;
  • Bedeitend erhéicht Leeschtung wann Dir GPU benotzt.
    D'Geschwindegkeet vum Model Training op Systemer mat NVIDIA Volta an Turing GPUs ass bis zu dräimol eropgaang;

  • Ausgefouert Major API Botzen, vill Uriff ëmbenannt oder geläscht, Ënnerstëtzung fir global Variablen an Hëllefsmethoden gestoppt. Amplaz tf.app, tf.flags, tf.logging gëtt eng nei absl-py API proposéiert. Fir weider déi al API ze benotzen, gouf de compat.v1 Modul virbereet.

Source: opennet.ru

Setzt e Commentaire