機械学習システム TensorFlow 2.0 をリリース

から提出された 機械学習プラットフォームの重要なリリース テンソルフロー 2.0これは、さまざまな深層機械学習アルゴリズムの既製の実装、Python でモデルを構築するためのシンプルなプログラミング インターフェイス、および計算グラフの構築と実行を制御できる C++ 言語の低レベル インターフェイスを提供します。 システム コードは C++ と Python で書かれており、 によって配布 Apache ライセンスに基づいて。

このプラットフォームはもともと Google Brain チームによって開発され、音声認識、写真内の顔の識別、画像の類似性の判断、Gmail でのスパムのフィルタリング、 選択 Google ニュースのニュースを翻訳し、意味を考慮して翻訳を整理します。 複数の CPU または GPU に計算を分散するための TensorFlow の組み込みサポートのおかげで、分散機械学習システムを標準ハードウェア上に作成できます。

TensorFlow は、データ フロー グラフを通じて実装された既製の数値計算アルゴリズムのライブラリを提供します。 このようなグラフのノードは数学演算または入出力ポイントを実装し、グラフのエッジはノード間を流れる多次元データ配列 (テンソル) を表します。
ノードをコンピューティングデバイスに割り当てて非同期に実行し、ノードに適したすべての理論を一度に並列処理することができます。これにより、脳内のニューロンの同時活性化と同様に、ニューラルネットワーク内のノードの同時動作を組織化することが可能になります。

新しいバージョンを準備する際の主な焦点は、簡素化と使いやすさでした。 いくつかの イノベーション:

  • モデルの構築とトレーニングのために新しい高レベル API が提案されました ケラス、モデルを構築するためのいくつかのインターフェイス オプション (シーケンシャル、関数、サブクラス化) を提供します。 即時実施 (プリコンパイルなし) 簡単なデバッグメカニズムを使用します。
  • 追加されたAPI tf.distribute.Strategy 組織のために 分散学習 既存のコードへの変更を最小限に抑えたモデル。 計算を複数の場所に分散する可能性に加えて、 複数のGPU、学習プロセスを複数の独立したプロセッサに分割し、クラウドを使用する機能の実験的サポートが利用可能です。 TPU (テンソル処理ユニット);
  • tf.Session を介して実行してグラフを構築する宣言型モデルの代わりに、Python で通常の関数を記述することができます。これは、tf.function への呼び出しを使用してグラフに変換し、リモートで実行、シリアル化、または最適化することができます。パフォーマンスの向上のため。
  • 翻訳者を追加しました サインPython コマンドのストリームを TensorFlow 式に変換し、Python コードを tf.function-decorated、tf.data、tf.distribute、および tf.keras 関数内で使用できるようにします。
  • SavedModel はモデル交換形式を統一し、モデル状態の保存と復元のサポートを追加します。 TensorFlow 用にコンパイルされたモデルは、以下で使用できるようになりました。 TensorFlow Lite (モバイルデバイス上)、 TensorFlow JS (ブラウザまたは Node.js で)、 TensorFlowサービング и TensorFlowハブ;
  • tf.train.Optimizers および tf.keras.Optimizers API が統合され、compute_gradients の代わりに、勾配を計算するための新しいクラスが提案されました。 グラデーションテープ;
  • GPU使用時のパフォーマンスが大幅に向上しました。
    NVIDIA Volta および Turing GPU を搭載したシステムでのモデル トレーニングの速度が最大 XNUMX 倍に向上しました。

  • 実施した API の大規模なクリーンアップ、多くの呼び出しの名前変更または削除、ヘルパー メソッドでのグローバル変数のサポートの停止。 tf.app、tf.flags、tf.logging の代わりに、新しい absl-py API が提案されています。 古い API を引き続き使用するために、compat.v1 モジュールが用意されています。

出所: オープンネット.ru

コメントを追加します