該平台最初由Google Brain團隊開發,在Google服務中用於語音識別、識別照片中的人臉、確定圖像的相似度、過濾Gmail中的垃圾郵件、
TensorFlow 提供了一個透過資料流程圖實現的現成數值計算演算法庫。 此類圖中的節點實現數學運算或輸入/輸出點,而圖的邊緣表示在節點之間流動的多維資料數組(張量)。
節點可以分配給計算設備並非同步執行,同時處理適合它們的所有理論,這使得可以透過類比大腦中神經元的同時激活來組織神經網路中節點的同時操作。
- 提出了一個新的高級 API 用於建立和訓練模型
凱拉斯 ,它提供了幾個用於建立模型的介面選項(順序、功能、子類化),並且能夠立即實施 (無需預編譯)並具有簡單的調試機制; - 新增了API
tf.distribute.Strategy 為了組織分散式學習 對現有程式碼進行最小更改的模型。 除了可以將計算分散到多個 GPU ,實驗支援可將學習過程劃分為多個獨立的處理器以及使用雲端的能力TPU (張量處理單元); - 可以用 Python 編寫普通函數,而不是透過 tf.Session 建立並執行圖形的聲明性模型,透過呼叫 tf.function,可以將其轉換為圖形,然後遠端執行、序列化或最佳化為了提高效能;
- 新增翻譯器
簽名 ,它將 Python 命令流轉換為 TensorFlow 表達式,允許在 tf.function-decorated、tf.data、tf.distribute 和 tf.keras 函數內部使用 Python 程式碼; - SavedModel 統一了模型交換格式,並增加了對保存和復原模型狀態的支援。 為 TensorFlow 編譯的模型現在可以用於
TensorFlow Lite (在行動裝置上),TensorFlow JS (在瀏覽器或 Node.js 中),TensorFlow服務 иTensorFlow 中心 ; - tf.train.Optimizers 和 tf.keras.Optimizers API 已統一;提出了一個新類別來計算梯度,而不是compute_gradients
漸層膠帶 ; - 使用 GPU 時效能顯著提高。
在配備 NVIDIA Volta 和 Turing GPU 的系統上模型訓練的速度提高了三倍; -
實施 主要 API 清理、許多呼叫重新命名或刪除、輔助方法中對全域變數的支援停止。 提出了新的absl-py API,而不是tf.app、tf.flags、tf.logging。 為了繼續使用舊的API,已經準備了compat.v1模組。
來源: opennet.ru