Phát hành hệ thống máy học TensorFlow 2.0

giới thiệu phát hành đáng kể nền tảng học máy Kéo căng 2.0, cung cấp các triển khai sẵn có của nhiều thuật toán học máy sâu khác nhau, giao diện lập trình đơn giản để xây dựng mô hình bằng Python và giao diện cấp thấp cho ngôn ngữ C++ cho phép bạn kiểm soát việc xây dựng và thực thi các biểu đồ tính toán. Mã hệ thống được viết bằng C++ và Python và phân phối bởi theo giấy phép Apache.

Nền tảng này ban đầu được nhóm Google Brain phát triển và được sử dụng trong các dịch vụ của Google để nhận dạng giọng nói, nhận dạng khuôn mặt trong ảnh, xác định độ giống nhau của hình ảnh, lọc thư rác trong Gmail, sự lựa chọn tin tức trên Google Tin tức và tổ chức dịch thuật có tính đến ý nghĩa. Hệ thống máy học phân tán có thể được tạo trên phần cứng tiêu chuẩn nhờ hỗ trợ tích hợp của TensorFlow để phân phối các phép tính trên nhiều CPU hoặc GPU.

TensorFlow cung cấp một thư viện các thuật toán tính toán số có sẵn được triển khai thông qua biểu đồ luồng dữ liệu. Các nút trong các biểu đồ như vậy thực hiện các phép toán hoặc điểm đầu vào/đầu ra, trong khi các cạnh của biểu đồ biểu thị mảng dữ liệu đa chiều (tensor) chảy giữa các nút.
Các nút có thể được gán cho các thiết bị máy tính và được thực thi không đồng bộ, xử lý đồng thời tất cả các lý thuyết phù hợp với chúng cùng một lúc, điều này giúp tổ chức hoạt động đồng thời của các nút trong mạng lưới thần kinh bằng cách tương tự với việc kích hoạt đồng thời các nơ-ron trong não.

Trọng tâm chính trong việc chuẩn bị phiên bản mới là đơn giản hóa và dễ sử dụng. Một số đổi mới:

  • API cấp cao mới đã được đề xuất để xây dựng và đào tạo các mô hình Máy ảnh, cung cấp một số tùy chọn giao diện để xây dựng các mô hình (Tuần tự, Chức năng, Phân lớp) với khả năng thực hiện ngay (không cần biên dịch trước) và có cơ chế sửa lỗi đơn giản;
  • Đã thêm API tf.distribute.Strategy cho tổ chức học tập phân tán mô hình với những thay đổi tối thiểu đối với mã hiện có. Ngoài khả năng trải rộng các tính toán trên nhiều GPU, hỗ trợ thử nghiệm có sẵn để chia quá trình học thành nhiều bộ xử lý độc lập và khả năng sử dụng đám mây TPU (Bộ xử lý tensor);
  • Thay vì mô hình khai báo xây dựng biểu đồ với việc thực thi thông qua tf.Session, có thể viết các hàm thông thường bằng Python, bằng cách sử dụng lệnh gọi tf.function, có thể được chuyển đổi thành biểu đồ và sau đó được thực thi, tuần tự hóa hoặc tối ưu hóa từ xa để cải thiện hiệu suất;
  • Đã thêm người dịch Đồ thị tự động, chuyển đổi một luồng lệnh Python thành các biểu thức TensorFlow, cho phép sử dụng mã Python bên trong các hàm tf.function-trang trí, tf.data, tf.distribute và tf.keras;
  • SavingModel thống nhất định dạng trao đổi mô hình và thêm hỗ trợ để lưu và khôi phục trạng thái mô hình. Các mô hình được biên dịch cho TensorFlow hiện có thể được sử dụng trong TensorFlow Lite (trên thiết bị di động), TensorFlow JS (trong trình duyệt hoặc Node.js), TensorFlow phục vụ и Trung tâm TensorFlow;
  • Các API tf.train.Optimizers và tf.keras.Optimizers đã được hợp nhất; thay vì tính toán_gradients, một lớp mới đã được đề xuất để tính toán độ dốc Băng chuyển màu;
  • Hiệu suất tăng đáng kể khi sử dụng GPU.
    Tốc độ đào tạo mô hình trên các hệ thống có GPU NVIDIA Volta và Turing đã tăng lên gấp ba lần;

  • Đã tiến hành Việc dọn dẹp API chính, nhiều lệnh gọi được đổi tên hoặc xóa, ngừng hỗ trợ các biến toàn cục trong các phương thức trợ giúp. Thay vì tf.app, tf.flags, tf.logging, một API absl-py mới được đề xuất. Để tiếp tục sử dụng API cũ, mô-đun compat.v1 đã được chuẩn bị.

Nguồn: opennet.ru

Thêm một lời nhận xét