该平台最初由Google Brain团队开发,在Google服务中用于语音识别、识别照片中的人脸、确定图像的相似度、过滤Gmail中的垃圾邮件、
TensorFlow 提供了一个通过数据流图实现的现成数值计算算法库。 此类图中的节点实现数学运算或输入/输出点,而图的边缘表示在节点之间流动的多维数据数组(张量)。
节点可以分配给计算设备并异步执行,同时处理适合它们的所有理论,这使得可以通过类比大脑中神经元的同时激活来组织神经网络中节点的同时操作。
- 提出了一个新的高级 API 用于构建和训练模型
Keras ,它提供了几个用于构建模型的接口选项(顺序、功能、子类化),并且能够立即实施 (无需预编译)并具有简单的调试机制; - 添加了API
tf.distribute.Strategy 为了组织分布式学习 对现有代码进行最小更改的模型。 除了可以将计算分散到多个 GPU ,实验支持可将学习过程划分为多个独立的处理器以及使用云的能力TPU (张量处理单元); - 可以用 Python 编写普通函数,而不是通过 tf.Session 构建并执行图形的声明性模型,通过调用 tf.function,可以将其转换为图形,然后远程执行、序列化或优化为了提高性能;
- 添加翻译器
签名 ,它将 Python 命令流转换为 TensorFlow 表达式,允许在 tf.function-decorated、tf.data、tf.distribute 和 tf.keras 函数内部使用 Python 代码; - SavedModel 统一了模型交换格式,并添加了对保存和恢复模型状态的支持。 为 TensorFlow 编译的模型现在可以用于
TensorFlow Lite (在移动设备上),TensorFlow JS (在浏览器或 Node.js 中),TensorFlow服务 иTensorFlow 中心 ; - tf.train.Optimizers 和 tf.keras.Optimizers API 已统一;提出了一个新类来计算梯度,而不是compute_gradients
渐变胶带 ; - 使用 GPU 时性能显着提高。
在配备 NVIDIA Volta 和 Turing GPU 的系统上模型训练的速度提高了三倍; -
实施 主要 API 清理、许多调用重命名或删除、辅助方法中对全局变量的支持停止。 提出了新的absl-py API,而不是tf.app、tf.flags、tf.logging。 为了继续使用旧的API,已经准备了compat.v1模块。
来源: opennet.ru