Utgivelse av maskinlæringssystem TensorFlow 2.0

Introdusert betydelig utgivelse av maskinlæringsplattform Tensorflow 2.0, som gir ferdige implementeringer av ulike dype maskinlæringsalgoritmer, et enkelt programmeringsgrensesnitt for å bygge modeller i Python, og et lavnivågrensesnitt for C++-språket som lar deg kontrollere konstruksjon og utførelse av beregningsgrafer. Systemkoden er skrevet i C++ og Python og distribuert av under Apache-lisensen.

Plattformen ble opprinnelig utviklet av Google Brain-teamet og brukes i Google-tjenester for talegjenkjenning, identifisering av ansikter på fotografier, bestemme likheten mellom bilder, filtrering av spam i Gmail, utvalg nyheter i Google Nyheter og organisering av oversettelse under hensyntagen til meningen. Distribuerte maskinlæringssystemer kan lages på standard maskinvare, takket være TensorFlows innebygde støtte for distribusjon av beregninger på tvers av flere CPUer eller GPUer.

TensorFlow gir et bibliotek med ferdige numeriske beregningsalgoritmer implementert gjennom dataflytgrafer. Noder i slike grafer implementerer matematiske operasjoner eller input/output-punkter, mens kantene på grafen representerer flerdimensjonale datamatriser (tensorer) som flyter mellom noder.
Noder kan tilordnes til dataenheter og utføres asynkront, samtidig som alle tesorer som er egnet for dem behandles samtidig, noe som gjør det mulig å organisere den samtidige driften av noder i et nevralt nettverk analogt med samtidig aktivering av nevroner i hjernen.

Hovedfokuset i utarbeidelsen av den nye versjonen var på forenkling og brukervennlighet. Noen innovasjoner:

  • Et nytt API på høyt nivå er foreslått for bygging og opplæring av modeller Keras, som gir flere grensesnittalternativer for å bygge modeller (sekvensiell, funksjonell, underklassing) med muligheten til å umiddelbar gjennomføring (uten forhåndskompilering) og med en enkel feilsøkingsmekanisme;
  • Lagt til API tf.distribute.Strategy for organisering distribuert læring modeller med minimale endringer i eksisterende kode. I tillegg til muligheten for å spre beregninger utover flere GPUer, eksperimentell støtte er tilgjengelig for å dele læringsprosessen inn i flere uavhengige prosessorer og muligheten til å bruke sky TPU (Tensor prosesseringsenhet);
  • I stedet for en deklarativ modell for å konstruere en graf med utførelse gjennom tf.Session, er det mulig å skrive vanlige funksjoner i Python, som ved å bruke et kall til tf.function kan konverteres til grafer og deretter eksternt utføres, serialiseres eller optimaliseres for forbedret ytelse;
  • Lagt til oversetter Autograf, som konverterer en strøm av Python-kommandoer til TensorFlow-uttrykk, slik at Python-kode kan brukes i funksjonene tf.function-decorated, tf.data, tf.distribute og tf.keras;
  • SavedModel forener modellutvekslingsformatet og legger til støtte for lagring og gjenoppretting av modelltilstander. Modeller kompilert for TensorFlow kan nå brukes i TensorFlow Lite (på mobile enheter), TensorFlow JS (i nettleser eller Node.js), TensorFlow Servering и TensorFlow Hub;
  • API-ene tf.train.Optimizers og tf.keras.Optimizers har blitt forent; i stedet for compute_gradients, har en ny klasse blitt foreslått for beregning av gradienter Gradient tape;
  • Betydelig økt ytelse ved bruk av GPU.
    Hastigheten på modelltrening på systemer med NVIDIA Volta og Turing GPUer har økt opptil tre ganger;

  • Utført Stor API-opprydding, mange kall omdøpt eller fjernet, støtte for globale variabler i hjelpemetoder stoppet. I stedet for tf.app, tf.flags, tf.logging, foreslås en ny absl-py API. For å fortsette å bruke den gamle API-en er compat.v1-modulen klargjort.

Kilde: opennet.ru

Legg til en kommentar