Itusilẹ ti eto ẹkọ ẹrọ TensorFlow 2.0

Agbekale itusilẹ pataki ti pẹpẹ ikẹkọ ẹrọ Ṣiṣan Tensor 2.0, eyi ti o pese awọn imuse ti a ti ṣetan ti awọn oriṣiriṣi awọn algorithms ẹkọ ẹrọ ti o jinlẹ, wiwo siseto ti o rọrun fun awọn awoṣe ile ni Python, ati ipele kekere-ipele fun ede C ++ ti o fun ọ laaye lati ṣakoso awọn ikole ati ipaniyan ti awọn aworan iṣiro. Awọn koodu eto ti kọ ni C ++ ati Python ati pin nipasẹ labẹ iwe-aṣẹ Apache.

Syeed jẹ ipilẹṣẹ ni ipilẹṣẹ nipasẹ ẹgbẹ Google Brain ati pe o lo ninu awọn iṣẹ Google fun idanimọ ọrọ, idanimọ awọn oju ni awọn fọto, ṣiṣe ipinnu ibajọra ti awọn aworan, sisẹ àwúrúju ninu Gmail, yiyan awọn iroyin ni Awọn iroyin Google ati siseto itumọ ni akiyesi itumọ. Awọn ọna ṣiṣe ikẹkọ ẹrọ ti a pin kaakiri ni a le ṣẹda lori ohun elo boṣewa, o ṣeun si atilẹyin ti a ṣe sinu TensorFlow fun pinpin awọn iṣiro kaakiri awọn CPUs pupọ tabi awọn GPUs.

TensorFlow n pese ile-ikawe ti awọn algoridimu iṣiro nọmba ti a ṣe ti a ṣe nipasẹ awọn aworan sisan data. Awọn apa inu iru awọn aworan bẹ ṣe awọn iṣẹ ṣiṣe mathematiki tabi awọn aaye titẹ sii/jade, lakoko ti awọn egbegbe ti iwọn naa ṣe aṣoju awọn akojọpọ data multidimensional (tensors) ti nṣan laarin awọn apa.
Awọn apa le wa ni sọtọ si awọn ẹrọ iširo ati ṣiṣe ni asynchronously, ni akoko kanna sisẹ gbogbo thesors ti o dara fun wọn ni ẹẹkan, eyiti o jẹ ki o ṣee ṣe lati ṣeto iṣẹ igbakọọkan ti awọn apa ni nẹtiwọọki nkankikan nipasẹ afiwe pẹlu imuṣiṣẹ nigbakanna ti awọn neurons ninu ọpọlọ.

Idojukọ akọkọ ni igbaradi ẹya tuntun wa lori simplification ati irọrun ti lilo. Diẹ ninu awọn imotuntun:

  • A ti dabaa API ipele giga tuntun fun kikọ ati awọn awoṣe ikẹkọ Keras, eyiti o pese ọpọlọpọ awọn aṣayan wiwo fun awọn awoṣe ile (Itẹle, Iṣẹ-ṣiṣe, Subclassing) pẹlu agbara lati lẹsẹkẹsẹ imuse (laisi iṣaju iṣaju) ati pẹlu ẹrọ ti n ṣatunṣe aṣiṣe;
  • API ti a ṣafikun tf.pinpin.Nwon.Mirza fun ajo pin eko si dede pẹlu pọọku ayipada si tẹlẹ koodu. Ni afikun si awọn seese ti ntan isiro kọja ọpọ GPUs, Atilẹyin esiperimenta wa fun pinpin ilana ikẹkọ si ọpọlọpọ awọn ilana ominira ati agbara lati lo awọsanma TPU (Ẹka processing Tensor);
  • Dipo awoṣe asọye ti kikọ aworan kan pẹlu ipaniyan nipasẹ tf.Session, o ṣee ṣe lati kọ awọn iṣẹ lasan ni Python, eyiti, lilo ipe si tf.function, le yipada si awọn aworan ati lẹhinna ṣiṣẹ latọna jijin, serialized, tabi iṣapeye. fun ilọsiwaju iṣẹ;
  • Afikun onitumọ AutoGraph, eyi ti o ṣe iyipada ṣiṣan ti awọn aṣẹ Python sinu awọn ọrọ TensorFlow, gbigba koodu Python lati lo inu tf.function-decorated, tf.data, tf.distribute, ati awọn iṣẹ tf.keras;
  • SavedModel ṣopọ ọna kika paṣipaarọ awoṣe ati ṣafikun atilẹyin fun fifipamọ ati mimu-pada sipo awọn ipinlẹ awoṣe. Awọn awoṣe ti a ṣajọ fun TensorFlow le ṣee lo ni bayi TensorFlow Lite (lori awọn ẹrọ alagbeka), TensorFlow JS (ni ẹrọ aṣawakiri tabi Node.js), Ṣiṣẹ TensorFlow и Ibudo TensorFlow;
  • Awọn tf.train.Optimizers ati tf.keras.Optimizers API ti jẹ iṣọkan; dipo compute_gradients, kilaasi tuntun ti dabaa fun ṣiṣe iṣiro awọn iwọn kekere Teepu Gradient;
  • Ṣiṣẹ pọ si ni pataki nigba lilo GPU.
    Iyara ti ikẹkọ awoṣe lori awọn ọna ṣiṣe pẹlu NVIDIA Volta ati Turing GPUs ti pọ si igba mẹta;

  • Ti gbe jade Imukuro API pataki, ọpọlọpọ awọn ipe ti a tunrukọ tabi yọkuro, atilẹyin fun awọn oniyipada agbaye ni awọn ọna oluranlọwọ duro. Dipo tf.app, tf.flags, tf.logging, API abl-py tuntun ni a dabaa. Lati tẹsiwaju lilo API atijọ, module compat.v1 ti pese sile.

orisun: opennet.ru

Fi ọrọìwòye kun