Dimittis machinae ratio cognita TensorFlow 2.0

Subjuncta significans emissione apparatus doctrina platform TensorFlow 2.0, quae paratae factae exsecutiones variarum machinarum profundarum algorithmarum discendi praebet, simplex programmatio instrumenti ad exempla aedificandi in Pythone, et humili gradu instrumenti linguae C++ quae permittit moderari graphorum computationum constructionem et executionem. Ratio codicis scripta est in C++ et Pythone et per distribui sub Apache licentia.

suggestum a Google cerebri quadrigis primum elaboratum est et in Google officiis ad recognitionem sermonis adhibitum, facies in photographs identificat, similitudinem imaginum determinans, spamma in Gmail percolando; electio nuntium in Google News et translationem attentis significationis ordinandis. Apparatus systemata discendi distributus creari potest in ferramentis vexillum, propter constructum TensorFlow in auxilio ad calculas distribuendas per plures CPUs vel GPUs.

TensorFlow praebet bibliothecam paratae factae computationis algorithmorum numerorum perficiendo per graphs datas fluxus. Nodi in talibus graphis operationes mathematicas efficiunt vel puncta input/outputant, dum graphiae margines multidimensionales notae (tensores) quae inter nodos fluunt.
Nodi ad machinas computandas et asynchrone faciendas assignari possunt, simul omnes thesores illis simul aptas dispensando, quae sinit simultaneam operationem nodorum in retis neurali per analogiam cum activatione neuronorum simultaneorum in cerebro componere.

Praecipua focus in nova versione conficienda erat in simplicitate et facilitate usus. aliquid innovations:

  • Novus gradus summus API proponitur ad exempla aedificanda et praeparanda Keras, quae nonnullas optiones instrumentorum ad exempla aedificandi (Sequential, Functional, Subclassing) cum facultate praebet. statim implementation (without pre-compilation) and with a simple debugging mechanism;
  • adiecit API tf.distribute.Strategy ad ordinationem distributa doctrina exempla cum minimis mutationibus in codice existentium. Praeter facultatem evulgandi rationes trans multa GPUs, auxilium experimentum praesto est processus discendi dividendi in plures processus independentes et facultas nubendi utendi TPU (Tensor processus unitatis);
  • Loco declarativi exemplaris graphi construendi cum executione per tf.Session, scribere potest functiones ordinarias in Pythone, quae, adhibita vocatione ad tf.functionem, in graphas converti possunt et deinde remote exsecutioni, serialized vel optimized ad meliorem observantiam;
  • additae translator AutoGraphe, qui rivum Pythonis praecipit in voces TensorFlow, permittens codicem Pythonis in medio tf.functioni-ornatae, tf.datae, tf.distributae, et tf.keras functionum;
  • ServataModel exemplar commutationis format et subsidia addit ad exemplum conservationis et restaurationis civitatum. Exemplar conscriptum pro TensorFlow nunc adhiberi potest Pro TensorFlow (in mobile cogitationes) TensorFlow JS (in pasco vel Node.js); TensorFlow servientes ΠΈ TensorFlow Hub;
  • In tf.train.Optimizers et tf.keras.Optimizers APIs uniti sunt, loco computa_gradientium nova classis pro calculis graduum proposita est. Gradiente Tape;
  • Insigniter augetur effectus cum usura GPU.
    Celeritas formandi formandi systemata cum NVIDIA Volta et Turing GPUs usque ad ter crevit;

  • Elatus Maior API tersus, plures vocat renominatos vel remotos, subsidium variabilium globalium in modis adiuvantium cessaverunt. Loco tf.app, tf.flags, tf.logging, nova absl-py API proponitur. Ad API vetere utendo, modulus compat.v1 paratus est.

Source: opennet.ru