ในบทความนี้ ฉันจะบอกคุณถึงวิธีการตั้งค่าสภาพแวดล้อมการเรียนรู้ของเครื่องภายใน 30 นาที สร้างโครงข่ายประสาทเทียมสำหรับการจดจำรูปภาพ จากนั้นใช้งานเครือข่ายเดียวกันบนโปรเซสเซอร์กราฟิก (GPU)
ก่อนอื่น เรามานิยามกันก่อนว่าโครงข่ายประสาทเทียมคืออะไร
ในกรณีของเรา นี่เป็นแบบจำลองทางคณิตศาสตร์รวมถึงซอฟต์แวร์หรือฮาร์ดแวร์ที่สร้างขึ้นบนหลักการขององค์กรและการทำงานของโครงข่ายประสาทเทียมทางชีววิทยา - เครือข่ายของเซลล์ประสาทของสิ่งมีชีวิต แนวคิดนี้เกิดขึ้นขณะศึกษากระบวนการที่เกิดขึ้นในสมองและพยายามจำลองกระบวนการเหล่านี้
โครงข่ายประสาทเทียมไม่ได้ถูกตั้งโปรแกรมตามความหมายปกติของคำนี้ แต่ได้รับการฝึกฝน ความสามารถในการเรียนรู้เป็นหนึ่งในข้อได้เปรียบหลักของโครงข่ายประสาทเทียมเหนืออัลกอริธึมแบบเดิม ในทางเทคนิคแล้ว การเรียนรู้ประกอบด้วยการค้นหาสัมประสิทธิ์การเชื่อมต่อระหว่างเซลล์ประสาท ในระหว่างกระบวนการฝึกอบรม โครงข่ายประสาทเทียมสามารถระบุการพึ่งพาที่ซับซ้อนระหว่างข้อมูลอินพุตและข้อมูลเอาต์พุต รวมถึงดำเนินการลักษณะทั่วไป
จากมุมมองของการเรียนรู้ของเครื่อง โครงข่ายประสาทเทียมเป็นกรณีพิเศษของวิธีการจดจำรูปแบบ การวิเคราะห์จำแนก วิธีการจัดกลุ่ม และวิธีการอื่นๆ
Оборудование
มาดูอุปกรณ์กันก่อน เราต้องการเซิร์ฟเวอร์ที่ติดตั้งระบบปฏิบัติการ Linux ไว้ อุปกรณ์ที่จำเป็นในการใช้งานระบบแมชชีนเลิร์นนิงค่อนข้างทรงพลังและส่งผลให้มีราคาแพง สำหรับผู้ที่ไม่มีเครื่องที่ดี ฉันแนะนำให้ใส่ใจกับข้อเสนอของผู้ให้บริการคลาวด์ คุณสามารถเช่าเซิร์ฟเวอร์ที่ต้องการได้อย่างรวดเร็วและจ่ายเฉพาะเวลาใช้งานเท่านั้น
ในโครงการที่จำเป็นต้องสร้างโครงข่ายประสาทเทียม ฉันใช้เซิร์ฟเวอร์ของผู้ให้บริการคลาวด์รายหนึ่งของรัสเซีย บริษัทให้บริการเซิร์ฟเวอร์คลาวด์ให้เช่าโดยเฉพาะสำหรับการเรียนรู้ของเครื่องด้วยโปรเซสเซอร์กราฟิก (GPU) Tesla V100 อันทรงพลังจาก NVIDIA กล่าวโดยย่อ: การใช้เซิร์ฟเวอร์ที่มี GPU จะมีประสิทธิภาพมากกว่า (รวดเร็ว) ถึงสิบเท่าเมื่อเปรียบเทียบกับเซิร์ฟเวอร์ที่มีราคาใกล้เคียงกันซึ่งใช้ CPU (หน่วยประมวลผลกลางที่รู้จักกันดี) ในการคำนวณ สิ่งนี้เกิดขึ้นได้เนื่องจากคุณสมบัติของสถาปัตยกรรม GPU ซึ่งสามารถคำนวณได้เร็วขึ้น
เพื่อนำตัวอย่างที่อธิบายไว้ด้านล่างไปใช้ เราได้ซื้อเซิร์ฟเวอร์ต่อไปนี้เป็นเวลาหลายวัน:
- ดิสก์ SSD 150 GB
- แรม 32GB
- โปรเซสเซอร์ Tesla V100 16 Gb พร้อม 4 คอร์
เราติดตั้ง Ubuntu 18.04 บนเครื่องของเรา
การตั้งค่าสภาพแวดล้อม
ตอนนี้มาติดตั้งทุกสิ่งที่จำเป็นสำหรับการทำงานบนเซิร์ฟเวอร์ เนื่องจากบทความของเรามีไว้สำหรับผู้เริ่มต้นเป็นหลัก ฉันจะพูดถึงบางประเด็นที่จะเป็นประโยชน์สำหรับพวกเขา
งานจำนวนมากเมื่อตั้งค่าสภาพแวดล้อมเสร็จสิ้นผ่านบรรทัดคำสั่ง ผู้ใช้ส่วนใหญ่ใช้ Windows เป็นระบบปฏิบัติการที่ทำงาน คอนโซลมาตรฐานในระบบปฏิบัติการนี้เป็นที่ต้องการอย่างมาก ดังนั้นเราจะใช้เครื่องมือที่สะดวก
ssh root@server-ip-or-hostname
แทนที่จะระบุเซิร์ฟเวอร์-ip-หรือ-ชื่อโฮสต์ ให้ระบุที่อยู่ IP หรือชื่อ DNS ของเซิร์ฟเวอร์ของคุณ จากนั้นให้ป้อนรหัสผ่านและหากการเชื่อมต่อสำเร็จเราควรจะได้รับข้อความเช่นนี้
Welcome to Ubuntu 18.04.3 LTS (GNU/Linux 4.15.0-74-generic x86_64)
ภาษาหลักสำหรับการพัฒนาโมเดล ML คือ Python และแพลตฟอร์มยอดนิยมสำหรับการใช้งานบน Linux ก็คือ
มาติดตั้งบนเซิร์ฟเวอร์ของเรากันดีกว่า
เราเริ่มต้นด้วยการอัปเดตตัวจัดการแพ็คเกจในเครื่อง:
sudo apt-get update
ติดตั้ง curl (ยูทิลิตี้บรรทัดคำสั่ง):
sudo apt-get install curl
ดาวน์โหลดเวอร์ชันล่าสุดของ Anaconda Distribution:
cd /tmp
curl –O https://repo.anaconda.com/archive/Anaconda3-2019.10-Linux-x86_64.sh
มาเริ่มการติดตั้งกันดีกว่า:
bash Anaconda3-2019.10-Linux-x86_64.sh
ในระหว่างขั้นตอนการติดตั้ง คุณจะถูกขอให้ยืนยันข้อตกลงใบอนุญาต เมื่อติดตั้งสำเร็จคุณจะเห็นสิ่งนี้:
Thank you for installing Anaconda3!
ขณะนี้มีการสร้างเฟรมเวิร์กจำนวนมากสำหรับการพัฒนาโมเดล ML เราทำงานกับสิ่งที่ได้รับความนิยมสูงสุด:
การใช้เฟรมเวิร์กช่วยให้คุณเพิ่มความเร็วในการพัฒนาและใช้เครื่องมือสำเร็จรูปสำหรับงานมาตรฐาน
ในตัวอย่างนี้ เราจะทำงานกับ PyTorch มาติดตั้งกัน:
conda install pytorch torchvision cudatoolkit=10.1 -c pytorch
ตอนนี้เราจำเป็นต้องเปิดตัว Jupyter Notebook ซึ่งเป็นเครื่องมือพัฒนายอดนิยมสำหรับผู้เชี่ยวชาญ ML ช่วยให้คุณสามารถเขียนโค้ดและดูผลลัพธ์ของการดำเนินการได้ทันที Jupyter Notebook รวมอยู่ใน Anaconda และติดตั้งบนเซิร์ฟเวอร์ของเราแล้ว คุณต้องเชื่อมต่อจากระบบเดสก์ท็อปของเรา
ในการดำเนินการนี้ เราจะเปิดตัว Jupyter บนเซิร์ฟเวอร์ที่ระบุพอร์ต 8080 ก่อน:
jupyter notebook --no-browser --port=8080 --allow-root
ถัดไป เปิดแท็บอื่นในคอนโซล Cmder ของเรา (เมนูด้านบน - กล่องโต้ตอบคอนโซลใหม่) เราจะเชื่อมต่อผ่านพอร์ต 8080 ไปยังเซิร์ฟเวอร์ผ่าน SSH:
ssh -L 8080:localhost:8080 root@server-ip-or-hostname
เมื่อเราป้อนคำสั่งแรก เราจะพบลิงก์สำหรับเปิด Jupyter ในเบราว์เซอร์ของเรา:
To access the notebook, open this file in a browser:
file:///root/.local/share/jupyter/runtime/nbserver-18788-open.html
Or copy and paste one of these URLs:
http://localhost:8080/?token=cca0bd0b30857821194b9018a5394a4ed2322236f116d311
or http://127.0.0.1:8080/?token=cca0bd0b30857821194b9018a5394a4ed2322236f116d311
ลองใช้ลิงค์สำหรับ localhost:8080 คัดลอกเส้นทางแบบเต็มและวางลงในแถบที่อยู่ของเบราว์เซอร์ในเครื่องพีซีของคุณ Jupyter Notebook จะเปิดขึ้น
มาสร้างสมุดบันทึกใหม่กันเถอะ: ใหม่ - สมุดบันทึก - Python 3
มาตรวจสอบการทำงานที่ถูกต้องของส่วนประกอบทั้งหมดที่เราติดตั้ง มาป้อนโค้ด PyTorch ตัวอย่างลงใน Jupyter แล้วรันการดำเนินการ (ปุ่ม Run):
from __future__ import print_function
import torch
x = torch.rand(5, 3)
print(x)
ผลลัพธ์ควรเป็นดังนี้:
หากคุณมีผลลัพธ์ที่คล้ายกัน แสดงว่าเรากำหนดค่าทุกอย่างถูกต้องแล้ว และเราสามารถเริ่มพัฒนาโครงข่ายประสาทเทียมได้!
การสร้างโครงข่ายประสาทเทียม
เราจะสร้างโครงข่ายประสาทเทียมสำหรับการจดจำภาพ ลองใช้สิ่งนี้เป็นพื้นฐาน
เราจะใช้ชุดข้อมูล CIFAR10 ที่เปิดเผยต่อสาธารณะเพื่อฝึกอบรมเครือข่าย มีคลาส: "เครื่องบิน", "รถยนต์", "นก", "แมว", "กวาง", "สุนัข", "กบ", "ม้า", "เรือ", "รถบรรทุก" รูปภาพใน CIFAR10 มีขนาด 3x32x32 นั่นคือภาพสี 3 ช่องขนาด 32x32 พิกเซล
สำหรับงานเราจะใช้แพ็คเกจที่สร้างโดย PyTorch เพื่อทำงานกับรูปภาพ - torchvision
เราจะทำตามขั้นตอนต่อไปนี้ตามลำดับ:
- กำลังโหลดและทำให้ชุดข้อมูลการฝึกอบรมและการทดสอบเป็นมาตรฐาน
- นิยามโครงข่ายประสาทเทียม
- การฝึกอบรมเครือข่ายเกี่ยวกับข้อมูลการฝึกอบรม
- การทดสอบเครือข่ายกับข้อมูลการทดสอบ
- มาฝึกและทดสอบซ้ำโดยใช้ GPU กัน
เราจะดำเนินการโค้ดทั้งหมดด้านล่างใน Jupyter Notebook
กำลังโหลดและทำให้ CIFAR10 เป็นมาตรฐาน
คัดลอกและรันโค้ดต่อไปนี้ใน Jupyter:
import torch
import torchvision
import torchvision.transforms as transforms
transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
คำตอบควรเป็น:
Downloading https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz to ./data/cifar-10-python.tar.gz
Extracting ./data/cifar-10-python.tar.gz to ./data
Files already downloaded and verified
เรามาแสดงภาพการฝึกอบรมหลายภาพเพื่อการทดสอบ:
import matplotlib.pyplot as plt
import numpy as np
# functions to show an image
def imshow(img):
img = img / 2 + 0.5 # unnormalize
npimg = img.numpy()
plt.imshow(np.transpose(npimg, (1, 2, 0)))
plt.show()
# get some random training images
dataiter = iter(trainloader)
images, labels = dataiter.next()
# show images
imshow(torchvision.utils.make_grid(images))
# print labels
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))
นิยามโครงข่ายประสาทเทียม
ก่อนอื่นมาพิจารณาว่าโครงข่ายประสาทเทียมสำหรับการจดจำภาพทำงานอย่างไร นี่คือเครือข่ายแบบจุดต่อจุดที่เรียบง่าย โดยรับข้อมูลอินพุตแล้วส่งผ่านหลายเลเยอร์ทีละชั้น จากนั้นจึงสร้างข้อมูลเอาต์พุตในที่สุด
มาสร้างเครือข่ายที่คล้ายกันในสภาพแวดล้อมของเรา:
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
นอกจากนี้เรายังกำหนดฟังก์ชันการสูญเสียและเครื่องมือเพิ่มประสิทธิภาพอีกด้วย
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
การฝึกอบรมเครือข่ายเกี่ยวกับข้อมูลการฝึกอบรม
มาเริ่มฝึกโครงข่ายประสาทเทียมของเรากันดีกว่า โปรดทราบว่าหลังจากที่คุณเรียกใช้โค้ดนี้ คุณจะต้องรอสักครู่จนกว่างานจะเสร็จสมบูรณ์ ฉันใช้เวลา 5 นาที ต้องใช้เวลาในการฝึกอบรมเครือข่าย
for epoch in range(2): # loop over the dataset multiple times
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# get the inputs; data is a list of [inputs, labels]
inputs, labels = data
# zero the parameter gradients
optimizer.zero_grad()
# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# print statistics
running_loss += loss.item()
if i % 2000 == 1999: # print every 2000 mini-batches
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
print('Finished Training')
เราได้รับผลลัพธ์ดังต่อไปนี้:
เราบันทึกโมเดลที่ผ่านการฝึกอบรมของเรา:
PATH = './cifar_net.pth'
torch.save(net.state_dict(), PATH)
การทดสอบเครือข่ายกับข้อมูลการทดสอบ
เราฝึกอบรมเครือข่ายโดยใช้ชุดข้อมูลการฝึกอบรม แต่เราต้องตรวจสอบว่าเครือข่ายได้เรียนรู้อะไรบ้างหรือไม่
เราจะทดสอบสิ่งนี้โดยการทำนายคลาสเลเบลที่โครงข่ายประสาทเทียมส่งออกและทดสอบเพื่อดูว่าเป็นจริงหรือไม่ หากการทำนายถูกต้อง เราจะเพิ่มตัวอย่างเข้าไปในรายการการทำนายที่ถูกต้อง
ขอแสดงภาพจากชุดทดสอบ:
dataiter = iter(testloader)
images, labels = dataiter.next()
# print images
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))
ตอนนี้ขอให้โครงข่ายประสาทเทียมบอกเราว่ามีอะไรอยู่ในภาพเหล่านี้:
net = Net()
net.load_state_dict(torch.load(PATH))
outputs = net(images)
_, predicted = torch.max(outputs, 1)
print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
for j in range(4)))
ผลลัพธ์ดูค่อนข้างดี: เครือข่ายระบุรูปภาพสามในสี่ภาพได้อย่างถูกต้อง
มาดูกันว่าเครือข่ายทำงานอย่างไรในชุดข้อมูลทั้งหมด
correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
ดูเหมือนว่าเครือข่ายรู้อะไรบางอย่างและกำลังทำงานอยู่ ถ้าเขาสุ่มคลาสต่างๆ ความแม่นยำจะอยู่ที่ 10%
ตอนนี้เรามาดูกันว่าคลาสใดที่เครือข่ายระบุได้ดีกว่า:
class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels).squeeze()
for i in range(4):
label = labels[i]
class_correct[label] += c[i].item()
class_total[label] += 1
for i in range(10):
print('Accuracy of %5s : %2d %%' % (
classes[i], 100 * class_correct[i] / class_total[i]))
ดูเหมือนว่าเครือข่ายจะระบุรถยนต์และเรือได้ดีที่สุด: ความแม่นยำ 71%
ดังนั้นเครือข่ายจึงทำงาน ทีนี้ลองถ่ายโอนงานไปยังโปรเซสเซอร์กราฟิก (GPU) แล้วดูว่ามีอะไรเปลี่ยนแปลงบ้าง
การฝึกอบรมโครงข่ายประสาทเทียมบน GPU
ก่อนอื่น ผมจะอธิบายสั้นๆ ว่า CUDA คืออะไร CUDA (Compute Unified Device Architecture) เป็นแพลตฟอร์มการประมวลผลแบบขนานที่พัฒนาโดย NVIDIA สำหรับการประมวลผลทั่วไปบนหน่วยประมวลผลกราฟิก (GPU) ด้วย CUDA นักพัฒนาสามารถเร่งความเร็วแอปพลิเคชันการประมวลผลได้อย่างมากโดยใช้ประโยชน์จากพลังของ GPU แพลตฟอร์มนี้ได้รับการติดตั้งแล้วบนเซิร์ฟเวอร์ของเราที่เราซื้อ
ก่อนอื่นมากำหนด GPU ของเราเป็นอุปกรณ์ cuda ที่มองเห็นได้ตัวแรก
device = torch . device ( "cuda:0" if torch . cuda . is_available () else "cpu" )
# Assuming that we are on a CUDA machine, this should print a CUDA device:
print ( device )
การส่งเครือข่ายไปยัง GPU:
net.to(device)
เราจะต้องส่งข้อมูลและเป้าหมายในแต่ละขั้นตอนไปยัง GPU:
inputs, labels = data[0].to(device), data[1].to(device)
มาฝึกเครือข่ายบน GPU อีกครั้ง:
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
for epoch in range(2): # loop over the dataset multiple times
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# get the inputs; data is a list of [inputs, labels]
inputs, labels = data[0].to(device), data[1].to(device)
# zero the parameter gradients
optimizer.zero_grad()
# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# print statistics
running_loss += loss.item()
if i % 2000 == 1999: # print every 2000 mini-batches
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
print('Finished Training')
ครั้งนี้การฝึกอบรมเครือข่ายใช้เวลาประมาณ 3 นาที ให้เราระลึกว่าขั้นตอนเดียวกันบนโปรเซสเซอร์ทั่วไปใช้เวลา 5 นาที ความแตกต่างไม่มีนัยสำคัญ สิ่งนี้เกิดขึ้นเพราะเครือข่ายของเราไม่ใหญ่มาก เมื่อใช้อาร์เรย์ขนาดใหญ่ในการฝึกอบรม ความแตกต่างระหว่างความเร็วของ GPU และโปรเซสเซอร์แบบเดิมจะเพิ่มขึ้น
นั่นดูเหมือนจะเป็นทั้งหมด สิ่งที่เราทำได้:
- เราดูว่า GPU คืออะไรและเลือกเซิร์ฟเวอร์ที่ติดตั้งไว้
- เราได้ตั้งค่าสภาพแวดล้อมซอฟต์แวร์เพื่อสร้างโครงข่ายประสาทเทียม
- เราสร้างโครงข่ายประสาทเทียมสำหรับการจดจำภาพและฝึกฝนมัน
- เราทำการฝึกอบรมเครือข่ายซ้ำโดยใช้ GPU และได้รับความเร็วเพิ่มขึ้น
ฉันยินดีที่จะตอบคำถามในความคิดเห็น
ที่มา: will.com