Liberigo de maŝinlernada sistemo TensorFlow 2.0

Enkondukita signifa liberigo de maŝinlernada platformo TensorFlow 2.0, kiu disponigas pretajn efektivigojn de diversaj profundaj maŝinlernado-algoritmoj, simplan programan interfacon por konstrui modelojn en Python, kaj malaltnivelan interfacon por la C++-lingvo, kiu ebligas al vi kontroli la konstruadon kaj ekzekuton de komputilaj grafikaĵoj. La sistema kodo estas skribita en C++ kaj Python kaj distribuita de sub la Apache-licenco.

La platformo estis origine evoluigita fare de la Google Brain-teamo kaj estas uzata en Google-servoj por parolrekono, identigi vizaĝojn en fotoj, determini la similecon de bildoj, filtri spamon en Gmail, elekto novaĵojn en Google News kaj organizi tradukon konsiderante la signifon. Distribuitaj maŝinlernado-sistemoj povas esti kreitaj sur norma aparataro, danke al la enkonstruita subteno de TensorFlow por distribuado de kalkuloj tra pluraj CPUoj aŭ GPUoj.

TensorFlow disponigas bibliotekon de pretaj nombraj kalkulalgoritmoj efektivigitaj tra datenfluaj grafikoj. Nodoj en tiaj grafeoj efektivigas matematikajn operaciojn aŭ enig-/eligpunktojn, dum la randoj de la grafeo reprezentas plurdimensiajn datentarojn (tensoro) kiuj fluas inter nodoj.
Nodoj povas esti asignitaj al komputikaj aparatoj kaj ekzekutitaj nesinkrone, samtempe prilaborante ĉiujn tesorojn taŭgajn por ili samtempe, kio ebligas organizi la samtempan funkciadon de nodoj en neŭrala reto analoge kun la samtempa aktivigo de neŭronoj en la cerbo.

La ĉeffokuso en preparado de la nova versio estis sur simpligo kaj facileco de uzo. Iuj novigoj:

  • Nova altnivela API estis proponita por konstruado kaj trejnado de modeloj Keras, kiu disponigas plurajn interfacopciojn por konstruado de modeloj (Sekvencaj, Funkciaj, Subklasado) kun la kapablo al tuja efektivigo (sen antaŭkompilo) kaj kun simpla sencimiga mekanismo;
  • Aldonita API tf.distribui.Strategy por organizo distribuita lernado modeloj kun minimumaj ŝanĝoj al ekzistanta kodo. Krom la ebleco disvastigi kalkulojn trans multoblaj GPUoj, eksperimenta subteno disponeblas por dividi la lernadon en plurajn sendependajn procesorojn kaj la kapablon uzi nubon TPU (Tensor-pretiga unuo);
  • Anstataŭ deklara modelo de konstruado de grafeo kun ekzekuto per tf.Session, estas eble skribi ordinarajn funkciojn en Python, kiuj, uzante alvokon al tf.function, povas esti konvertitaj en grafeojn kaj poste malproksime ekzekutitaj, seriigitaj aŭ optimumigitaj. por plibonigita agado;
  • Aldonita tradukisto Aŭtografiko, kiu konvertas fluon de Python-komandoj en TensorFlow-esprimojn, permesante al Python-kodo esti uzata ene de funkcioj tf.function-decorated, tf.data, tf.distribute kaj tf.keras;
  • SavedModel unuigas la modelinterŝanĝan formaton kaj aldonas subtenon por konservi kaj restarigi modelajn ŝtatojn. Modeloj kompilitaj por TensorFlow nun povas esti uzataj en TensorFlow Lite (sur porteblaj aparatoj), TensorFlow JS (en retumilo aŭ Node.js), TensorFlow Servado и TensorFlow Hub;
  • La tf.train.Optimizers kaj tf.keras.Optimizers API-oj estis unuigitaj; anstataŭ compute_gradients, nova klaso estis proponita por kalkuli gradientojn Gradienta Bendo;
  • Signife pliigita rendimento kiam vi uzas GPU.
    La rapideco de modela trejnado sur sistemoj kun NVIDIA Volta kaj Turing GPU-oj pliiĝis ĝis tri fojojn;

  • Kondukita Grava API-purigado, multaj vokoj renomitaj aŭ forigitaj, subteno por tutmondaj variabloj en helpaj metodoj ĉesis. Anstataŭ tf.app, tf.flags, tf.logging, nova absl-py API estas proponita. Por daŭre uzi la malnovan API, la modulo compat.v1 estis preparita.

fonto: opennet.ru

Aldoni komenton