โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น
ในบทความนี้ ฉันจะบอกคุณถึงวิธีการตั้งค่าสภาพแวดล้อมการเรียนรู้ของเครื่องภายใน 30 นาที สร้างโครงข่ายประสาทเทียมสำหรับการจดจำรูปภาพ จากนั้นใช้งานเครือข่ายเดียวกันบนโปรเซสเซอร์กราฟิก (GPU)

ก่อนอื่น เรามานิยามกันก่อนว่าโครงข่ายประสาทเทียมคืออะไร

ในกรณีของเรา นี่เป็นแบบจำลองทางคณิตศาสตร์รวมถึงซอฟต์แวร์หรือฮาร์ดแวร์ที่สร้างขึ้นบนหลักการขององค์กรและการทำงานของโครงข่ายประสาทเทียมทางชีววิทยา - เครือข่ายของเซลล์ประสาทของสิ่งมีชีวิต แนวคิดนี้เกิดขึ้นขณะศึกษากระบวนการที่เกิดขึ้นในสมองและพยายามจำลองกระบวนการเหล่านี้

โครงข่ายประสาทเทียมไม่ได้ถูกตั้งโปรแกรมตามความหมายปกติของคำนี้ แต่ได้รับการฝึกฝน ความสามารถในการเรียนรู้เป็นหนึ่งในข้อได้เปรียบหลักของโครงข่ายประสาทเทียมเหนืออัลกอริธึมแบบเดิม ในทางเทคนิคแล้ว การเรียนรู้ประกอบด้วยการค้นหาสัมประสิทธิ์การเชื่อมต่อระหว่างเซลล์ประสาท ในระหว่างกระบวนการฝึกอบรม โครงข่ายประสาทเทียมสามารถระบุการพึ่งพาที่ซับซ้อนระหว่างข้อมูลอินพุตและข้อมูลเอาต์พุต รวมถึงดำเนินการลักษณะทั่วไป

จากมุมมองของการเรียนรู้ของเครื่อง โครงข่ายประสาทเทียมเป็นกรณีพิเศษของวิธีการจดจำรูปแบบ การวิเคราะห์จำแนก วิธีการจัดกลุ่ม และวิธีการอื่นๆ

Оборудование

มาดูอุปกรณ์กันก่อน เราต้องการเซิร์ฟเวอร์ที่ติดตั้งระบบปฏิบัติการ Linux ไว้ อุปกรณ์ที่จำเป็นในการใช้งานระบบแมชชีนเลิร์นนิงค่อนข้างทรงพลังและส่งผลให้มีราคาแพง สำหรับผู้ที่ไม่มีเครื่องที่ดี ฉันแนะนำให้ใส่ใจกับข้อเสนอของผู้ให้บริการคลาวด์ คุณสามารถเช่าเซิร์ฟเวอร์ที่ต้องการได้อย่างรวดเร็วและจ่ายเฉพาะเวลาใช้งานเท่านั้น

ในโครงการที่จำเป็นต้องสร้างโครงข่ายประสาทเทียม ฉันใช้เซิร์ฟเวอร์ของผู้ให้บริการคลาวด์รายหนึ่งของรัสเซีย บริษัทให้บริการเซิร์ฟเวอร์คลาวด์ให้เช่าโดยเฉพาะสำหรับการเรียนรู้ของเครื่องด้วยโปรเซสเซอร์กราฟิก (GPU) Tesla V100 อันทรงพลังจาก NVIDIA กล่าวโดยย่อ: การใช้เซิร์ฟเวอร์ที่มี GPU จะมีประสิทธิภาพมากกว่า (รวดเร็ว) ถึงสิบเท่าเมื่อเปรียบเทียบกับเซิร์ฟเวอร์ที่มีราคาใกล้เคียงกันซึ่งใช้ CPU (หน่วยประมวลผลกลางที่รู้จักกันดี) ในการคำนวณ สิ่งนี้เกิดขึ้นได้เนื่องจากคุณสมบัติของสถาปัตยกรรม GPU ซึ่งสามารถคำนวณได้เร็วขึ้น

เพื่อนำตัวอย่างที่อธิบายไว้ด้านล่างไปใช้ เราได้ซื้อเซิร์ฟเวอร์ต่อไปนี้เป็นเวลาหลายวัน:

  • ดิสก์ SSD 150 GB
  • แรม 32GB
  • โปรเซสเซอร์ Tesla V100 16 Gb พร้อม 4 คอร์

เราติดตั้ง Ubuntu 18.04 บนเครื่องของเรา

การตั้งค่าสภาพแวดล้อม

ตอนนี้มาติดตั้งทุกสิ่งที่จำเป็นสำหรับการทำงานบนเซิร์ฟเวอร์ เนื่องจากบทความของเรามีไว้สำหรับผู้เริ่มต้นเป็นหลัก ฉันจะพูดถึงบางประเด็นที่จะเป็นประโยชน์สำหรับพวกเขา

งานจำนวนมากเมื่อตั้งค่าสภาพแวดล้อมเสร็จสิ้นผ่านบรรทัดคำสั่ง ผู้ใช้ส่วนใหญ่ใช้ Windows เป็นระบบปฏิบัติการที่ทำงาน คอนโซลมาตรฐานในระบบปฏิบัติการนี้เป็นที่ต้องการอย่างมาก ดังนั้นเราจะใช้เครื่องมือที่สะดวก ผู้นำ/. ดาวน์โหลดเวอร์ชันขนาดเล็กและเรียกใช้ Cmder.exe ถัดไปคุณต้องเชื่อมต่อกับเซิร์ฟเวอร์ผ่าน SSH:

ssh root@server-ip-or-hostname

แทนที่จะระบุเซิร์ฟเวอร์-ip-หรือ-ชื่อโฮสต์ ให้ระบุที่อยู่ IP หรือชื่อ DNS ของเซิร์ฟเวอร์ของคุณ จากนั้นให้ป้อนรหัสผ่านและหากการเชื่อมต่อสำเร็จเราควรจะได้รับข้อความเช่นนี้

Welcome to Ubuntu 18.04.3 LTS (GNU/Linux 4.15.0-74-generic x86_64)

ภาษาหลักสำหรับการพัฒนาโมเดล ML คือ Python และแพลตฟอร์มยอดนิยมสำหรับการใช้งานบน Linux ก็คือ งู.

มาติดตั้งบนเซิร์ฟเวอร์ของเรากันดีกว่า

เราเริ่มต้นด้วยการอัปเดตตัวจัดการแพ็คเกจในเครื่อง:

sudo apt-get update

ติดตั้ง curl (ยูทิลิตี้บรรทัดคำสั่ง):

sudo apt-get install curl

ดาวน์โหลดเวอร์ชันล่าสุดของ Anaconda Distribution:

cd /tmp
curl –O https://repo.anaconda.com/archive/Anaconda3-2019.10-Linux-x86_64.sh

มาเริ่มการติดตั้งกันดีกว่า:

bash Anaconda3-2019.10-Linux-x86_64.sh

ในระหว่างขั้นตอนการติดตั้ง คุณจะถูกขอให้ยืนยันข้อตกลงใบอนุญาต เมื่อติดตั้งสำเร็จคุณจะเห็นสิ่งนี้:

Thank you for installing Anaconda3!

ขณะนี้มีการสร้างเฟรมเวิร์กจำนวนมากสำหรับการพัฒนาโมเดล ML เราทำงานกับสิ่งที่ได้รับความนิยมสูงสุด: ไพทอร์ช и เทนเซอร์โฟลว์.

การใช้เฟรมเวิร์กช่วยให้คุณเพิ่มความเร็วในการพัฒนาและใช้เครื่องมือสำเร็จรูปสำหรับงานมาตรฐาน

ในตัวอย่างนี้ เราจะทำงานกับ PyTorch มาติดตั้งกัน:

conda install pytorch torchvision cudatoolkit=10.1 -c pytorch

ตอนนี้เราจำเป็นต้องเปิดตัว Jupyter Notebook ซึ่งเป็นเครื่องมือพัฒนายอดนิยมสำหรับผู้เชี่ยวชาญ ML ช่วยให้คุณสามารถเขียนโค้ดและดูผลลัพธ์ของการดำเนินการได้ทันที Jupyter Notebook รวมอยู่ใน Anaconda และติดตั้งบนเซิร์ฟเวอร์ของเราแล้ว คุณต้องเชื่อมต่อจากระบบเดสก์ท็อปของเรา

ในการดำเนินการนี้ เราจะเปิดตัว Jupyter บนเซิร์ฟเวอร์ที่ระบุพอร์ต 8080 ก่อน:

jupyter notebook --no-browser --port=8080 --allow-root

ถัดไป เปิดแท็บอื่นในคอนโซล Cmder ของเรา (เมนูด้านบน - กล่องโต้ตอบคอนโซลใหม่) เราจะเชื่อมต่อผ่านพอร์ต 8080 ไปยังเซิร์ฟเวอร์ผ่าน SSH:

ssh -L 8080:localhost:8080 root@server-ip-or-hostname

เมื่อเราป้อนคำสั่งแรก เราจะพบลิงก์สำหรับเปิด Jupyter ในเบราว์เซอร์ของเรา:

To access the notebook, open this file in a browser:
        file:///root/.local/share/jupyter/runtime/nbserver-18788-open.html
    Or copy and paste one of these URLs:
        http://localhost:8080/?token=cca0bd0b30857821194b9018a5394a4ed2322236f116d311
     or http://127.0.0.1:8080/?token=cca0bd0b30857821194b9018a5394a4ed2322236f116d311

ลองใช้ลิงค์สำหรับ localhost:8080 คัดลอกเส้นทางแบบเต็มและวางลงในแถบที่อยู่ของเบราว์เซอร์ในเครื่องพีซีของคุณ Jupyter Notebook จะเปิดขึ้น

มาสร้างสมุดบันทึกใหม่กันเถอะ: ใหม่ - สมุดบันทึก - Python 3

มาตรวจสอบการทำงานที่ถูกต้องของส่วนประกอบทั้งหมดที่เราติดตั้ง มาป้อนโค้ด PyTorch ตัวอย่างลงใน Jupyter แล้วรันการดำเนินการ (ปุ่ม Run):

from __future__ import print_function
import torch
x = torch.rand(5, 3)
print(x)

ผลลัพธ์ควรเป็นดังนี้:

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

หากคุณมีผลลัพธ์ที่คล้ายกัน แสดงว่าเรากำหนดค่าทุกอย่างถูกต้องแล้ว และเราสามารถเริ่มพัฒนาโครงข่ายประสาทเทียมได้!

การสร้างโครงข่ายประสาทเทียม

เราจะสร้างโครงข่ายประสาทเทียมสำหรับการจดจำภาพ ลองใช้สิ่งนี้เป็นพื้นฐาน ความเป็นผู้นำ.

เราจะใช้ชุดข้อมูล CIFAR10 ที่เปิดเผยต่อสาธารณะเพื่อฝึกอบรมเครือข่าย มีคลาส: "เครื่องบิน", "รถยนต์", "นก", "แมว", "กวาง", "สุนัข", "กบ", "ม้า", "เรือ", "รถบรรทุก" รูปภาพใน CIFAR10 มีขนาด 3x32x32 นั่นคือภาพสี 3 ช่องขนาด 32x32 พิกเซล

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น
สำหรับงานเราจะใช้แพ็คเกจที่สร้างโดย PyTorch เพื่อทำงานกับรูปภาพ - torchvision

เราจะทำตามขั้นตอนต่อไปนี้ตามลำดับ:

  • กำลังโหลดและทำให้ชุดข้อมูลการฝึกอบรมและการทดสอบเป็นมาตรฐาน
  • นิยามโครงข่ายประสาทเทียม
  • การฝึกอบรมเครือข่ายเกี่ยวกับข้อมูลการฝึกอบรม
  • การทดสอบเครือข่ายกับข้อมูลการทดสอบ
  • มาฝึกและทดสอบซ้ำโดยใช้ GPU กัน

เราจะดำเนินการโค้ดทั้งหมดด้านล่างใน Jupyter Notebook

กำลังโหลดและทำให้ CIFAR10 เป็นมาตรฐาน

คัดลอกและรันโค้ดต่อไปนี้ใน Jupyter:


import torch
import torchvision
import torchvision.transforms as transforms

transform = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

คำตอบควรเป็น:

Downloading https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz to ./data/cifar-10-python.tar.gz
Extracting ./data/cifar-10-python.tar.gz to ./data
Files already downloaded and verified

เรามาแสดงภาพการฝึกอบรมหลายภาพเพื่อการทดสอบ:


import matplotlib.pyplot as plt
import numpy as np

# functions to show an image

def imshow(img):
    img = img / 2 + 0.5     # unnormalize
    npimg = img.numpy()
    plt.imshow(np.transpose(npimg, (1, 2, 0)))
    plt.show()

# get some random training images
dataiter = iter(trainloader)
images, labels = dataiter.next()

# show images
imshow(torchvision.utils.make_grid(images))
# print labels
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

นิยามโครงข่ายประสาทเทียม

ก่อนอื่นมาพิจารณาว่าโครงข่ายประสาทเทียมสำหรับการจดจำภาพทำงานอย่างไร นี่คือเครือข่ายแบบจุดต่อจุดที่เรียบง่าย โดยรับข้อมูลอินพุตแล้วส่งผ่านหลายเลเยอร์ทีละชั้น จากนั้นจึงสร้างข้อมูลเอาต์พุตในที่สุด

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

มาสร้างเครือข่ายที่คล้ายกันในสภาพแวดล้อมของเรา:


import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()

นอกจากนี้เรายังกำหนดฟังก์ชันการสูญเสียและเครื่องมือเพิ่มประสิทธิภาพอีกด้วย


import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

การฝึกอบรมเครือข่ายเกี่ยวกับข้อมูลการฝึกอบรม

มาเริ่มฝึกโครงข่ายประสาทเทียมของเรากันดีกว่า โปรดทราบว่าหลังจากที่คุณเรียกใช้โค้ดนี้ คุณจะต้องรอสักครู่จนกว่างานจะเสร็จสมบูรณ์ ฉันใช้เวลา 5 นาที ต้องใช้เวลาในการฝึกอบรมเครือข่าย

 for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

เราได้รับผลลัพธ์ดังต่อไปนี้:

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

เราบันทึกโมเดลที่ผ่านการฝึกอบรมของเรา:

PATH = './cifar_net.pth'
torch.save(net.state_dict(), PATH)

การทดสอบเครือข่ายกับข้อมูลการทดสอบ

เราฝึกอบรมเครือข่ายโดยใช้ชุดข้อมูลการฝึกอบรม แต่เราต้องตรวจสอบว่าเครือข่ายได้เรียนรู้อะไรบ้างหรือไม่

เราจะทดสอบสิ่งนี้โดยการทำนายคลาสเลเบลที่โครงข่ายประสาทเทียมส่งออกและทดสอบเพื่อดูว่าเป็นจริงหรือไม่ หากการทำนายถูกต้อง เราจะเพิ่มตัวอย่างเข้าไปในรายการการทำนายที่ถูกต้อง
ขอแสดงภาพจากชุดทดสอบ:

dataiter = iter(testloader)
images, labels = dataiter.next()

# print images
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

ตอนนี้ขอให้โครงข่ายประสาทเทียมบอกเราว่ามีอะไรอยู่ในภาพเหล่านี้:


net = Net()
net.load_state_dict(torch.load(PATH))

outputs = net(images)

_, predicted = torch.max(outputs, 1)

print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
                              for j in range(4)))

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

ผลลัพธ์ดูค่อนข้างดี: เครือข่ายระบุรูปภาพสามในสี่ภาพได้อย่างถูกต้อง

มาดูกันว่าเครือข่ายทำงานอย่างไรในชุดข้อมูลทั้งหมด


correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

ดูเหมือนว่าเครือข่ายรู้อะไรบางอย่างและกำลังทำงานอยู่ ถ้าเขาสุ่มคลาสต่างๆ ความแม่นยำจะอยู่ที่ 10%

ตอนนี้เรามาดูกันว่าคลาสใดที่เครือข่ายระบุได้ดีกว่า:

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs, 1)
        c = (predicted == labels).squeeze()
        for i in range(4):
            label = labels[i]
            class_correct[label] += c[i].item()
            class_total[label] += 1


for i in range(10):
    print('Accuracy of %5s : %2d %%' % (
        classes[i], 100 * class_correct[i] / class_total[i]))

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

ดูเหมือนว่าเครือข่ายจะระบุรถยนต์และเรือได้ดีที่สุด: ความแม่นยำ 71%

ดังนั้นเครือข่ายจึงทำงาน ทีนี้ลองถ่ายโอนงานไปยังโปรเซสเซอร์กราฟิก (GPU) แล้วดูว่ามีอะไรเปลี่ยนแปลงบ้าง

การฝึกอบรมโครงข่ายประสาทเทียมบน GPU

ก่อนอื่น ผมจะอธิบายสั้นๆ ว่า CUDA คืออะไร CUDA (Compute Unified Device Architecture) เป็นแพลตฟอร์มการประมวลผลแบบขนานที่พัฒนาโดย NVIDIA สำหรับการประมวลผลทั่วไปบนหน่วยประมวลผลกราฟิก (GPU) ด้วย CUDA นักพัฒนาสามารถเร่งความเร็วแอปพลิเคชันการประมวลผลได้อย่างมากโดยใช้ประโยชน์จากพลังของ GPU แพลตฟอร์มนี้ได้รับการติดตั้งแล้วบนเซิร์ฟเวอร์ของเราที่เราซื้อ

ก่อนอื่นมากำหนด GPU ของเราเป็นอุปกรณ์ cuda ที่มองเห็นได้ตัวแรก

device = torch . device ( "cuda:0" if torch . cuda . is_available () else "cpu" )
# Assuming that we are on a CUDA machine, this should print a CUDA device:
print ( device )

โครงข่ายประสาทเทียมแรกของคุณบนหน่วยประมวลผลกราฟิก (GPU) คู่มือสำหรับผู้เริ่มต้น

การส่งเครือข่ายไปยัง GPU:

net.to(device)

เราจะต้องส่งข้อมูลและเป้าหมายในแต่ละขั้นตอนไปยัง GPU:

inputs, labels = data[0].to(device), data[1].to(device)

มาฝึกเครือข่ายบน GPU อีกครั้ง:

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
    inputs, labels = data[0].to(device), data[1].to(device)

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

ครั้งนี้การฝึกอบรมเครือข่ายใช้เวลาประมาณ 3 นาที ให้เราระลึกว่าขั้นตอนเดียวกันบนโปรเซสเซอร์ทั่วไปใช้เวลา 5 นาที ความแตกต่างไม่มีนัยสำคัญ สิ่งนี้เกิดขึ้นเพราะเครือข่ายของเราไม่ใหญ่มาก เมื่อใช้อาร์เรย์ขนาดใหญ่ในการฝึกอบรม ความแตกต่างระหว่างความเร็วของ GPU และโปรเซสเซอร์แบบเดิมจะเพิ่มขึ้น

นั่นดูเหมือนจะเป็นทั้งหมด สิ่งที่เราทำได้:

  • เราดูว่า GPU คืออะไรและเลือกเซิร์ฟเวอร์ที่ติดตั้งไว้
  • เราได้ตั้งค่าสภาพแวดล้อมซอฟต์แวร์เพื่อสร้างโครงข่ายประสาทเทียม
  • เราสร้างโครงข่ายประสาทเทียมสำหรับการจดจำภาพและฝึกฝนมัน
  • เราทำการฝึกอบรมเครือข่ายซ้ำโดยใช้ GPU และได้รับความเร็วเพิ่มขึ้น

ฉันยินดีที่จะตอบคำถามในความคิดเห็น

ที่มา: will.com

เพิ่มความคิดเห็น