Artikel ini membincangkan beberapa cara untuk menentukan persamaan matematik bagi garis regresi mudah (berpasangan).
Semua kaedah untuk menyelesaikan persamaan yang dibincangkan di sini adalah berdasarkan kaedah kuasa dua terkecil. Mari kita nyatakan kaedah seperti berikut:
- Penyelesaian analitikal
- Keturunan Kecerunan
- Penurunan kecerunan stokastik
Bagi setiap kaedah menyelesaikan persamaan garis lurus, artikel itu menyediakan pelbagai fungsi, yang kebanyakannya dibahagikan kepada yang ditulis tanpa menggunakan perpustakaan numpy dan yang digunakan untuk pengiraan numpy. Adalah dipercayai bahawa penggunaan mahir numpy akan mengurangkan kos pengkomputeran.
Semua kod yang diberikan dalam artikel ditulis dalam bahasa ular sawa 2.7 menggunakan Notebook Jupyter. Kod sumber dan fail dengan data sampel disiarkan pada
Artikel ini lebih ditujukan kepada kedua-dua pemula dan mereka yang telah secara beransur-ansur mula menguasai kajian bahagian yang sangat luas dalam kecerdasan buatan - pembelajaran mesin.
Untuk menggambarkan bahan, kami menggunakan contoh yang sangat mudah.
Contoh syarat
Kami mempunyai lima nilai yang mencirikan pergantungan Y daripada X (Jadual No. 1):
Jadual No. 1 "Syarat contoh"
Kami akan menganggap bahawa nilai ialah bulan dalam setahun, dan β pendapatan bulan ini. Dalam erti kata lain, pendapatan bergantung pada bulan dalam setahun, dan - satu-satunya tanda di mana pendapatan bergantung.
Contohnya begitu-begitu, kedua-duanya dari sudut pergantungan bersyarat hasil pada bulan dalam setahun, dan dari sudut pandangan bilangan nilai - terdapat sangat sedikit daripada mereka. Walau bagaimanapun, penyederhanaan sedemikian akan memungkinkan, seperti yang mereka katakan, untuk menerangkan, tidak selalu dengan mudah, bahan yang diasimilasikan oleh pemula. Dan juga kesederhanaan nombor akan membolehkan mereka yang ingin menyelesaikan contoh di atas kertas tanpa kos buruh yang ketara.
Mari kita anggap bahawa pergantungan yang diberikan dalam contoh boleh dianggarkan dengan baik oleh persamaan matematik garis regresi mudah (berpasangan) dalam bentuk:
mana adalah bulan di mana pendapatan diterima, - hasil yang sepadan dengan bulan, ΠΈ ialah pekali regresi bagi garis anggaran.
Perhatikan bahawa pekali sering dipanggil cerun atau kecerunan garis anggaran; mewakili jumlah yang apabila ia berubah .
Jelas sekali, tugas kita dalam contoh adalah untuk memilih pekali sedemikian dalam persamaan ΠΈ , di mana sisihan nilai hasil kami dikira mengikut bulan daripada jawapan sebenar, i.e. nilai yang ditunjukkan dalam sampel akan menjadi minimum.
Kaedah kuasa dua terkecil
Mengikut kaedah kuasa dua terkecil, sisihan hendaklah dikira dengan menduakannya. Teknik ini membolehkan anda mengelakkan pembatalan bersama penyimpangan jika mereka mempunyai tanda yang bertentangan. Sebagai contoh, jika dalam satu kes, sisihan adalah +5 (tambah lima), dan yang lain -5 (tolak lima), maka jumlah sisihan akan membatalkan satu sama lain dan berjumlah 0 (sifar). Adalah mungkin untuk tidak mengkuadratkan sisihan, tetapi menggunakan sifat modulus dan kemudian semua sisihan akan menjadi positif dan akan terkumpul. Kami tidak akan membincangkan perkara ini secara terperinci, tetapi hanya menunjukkan bahawa untuk kemudahan pengiraan, adalah lazim untuk mengkuadratkan sisihan.
Inilah rupa formula yang dengannya kita akan menentukan jumlah sisihan kuasa dua terkecil (ralat):
mana ialah fungsi penghampiran jawapan benar (iaitu, hasil yang kami kira),
adalah jawapan yang benar (hasil yang disediakan dalam sampel),
ialah indeks sampel (bilangan bulan di mana sisihan ditentukan)
Mari bezakan fungsi, tentukan persamaan pembezaan separa, dan bersedia untuk beralih kepada penyelesaian analisis. Tetapi pertama-tama, mari kita bersiar-siar singkat tentang apa itu pembezaan dan ingat makna geometri terbitan itu.
Pembezaan
Pembezaan ialah operasi mencari terbitan bagi suatu fungsi.
Derivatif digunakan untuk apa? Derivatif fungsi mencirikan kadar perubahan fungsi dan memberitahu kita arahnya. Jika derivatif pada titik tertentu adalah positif, maka fungsi bertambah; jika tidak, fungsi berkurang. Dan semakin besar nilai terbitan mutlak, semakin tinggi kadar perubahan nilai fungsi, serta semakin curam kecerunan graf fungsi.
Sebagai contoh, di bawah keadaan sistem koordinat Cartesan, nilai terbitan pada titik M(0,0) adalah sama dengan +25 bermakna pada titik tertentu, apabila nilai dialihkan ke kanan oleh unit konvensional, nilai meningkat sebanyak 25 unit konvensional. Pada graf ia kelihatan seperti peningkatan yang agak curam dalam nilai dari titik tertentu.
Contoh yang lain. Nilai terbitan adalah sama -0,1 bermakna apabila disesarkan setiap satu unit konvensional, nilai berkurangan hanya 0,1 unit konvensional. Pada masa yang sama, pada graf fungsi, kita boleh melihat cerun menurun yang hampir tidak ketara. Melukis analogi dengan gunung, seolah-olah kita menuruni cerun yang lembut dari gunung, tidak seperti contoh sebelumnya, di mana kita terpaksa mendaki puncak yang sangat curam :)
Oleh itu, selepas membezakan fungsi secara kebetulan ΠΈ , kami mentakrifkan persamaan pembezaan separa tertib pertama. Selepas menentukan persamaan, kami akan menerima sistem dua persamaan, dengan menyelesaikannya kami akan dapat memilih nilai pekali tersebut ΠΈ , yang mana nilai derivatif yang sepadan pada titik tertentu berubah dengan jumlah yang sangat, sangat kecil, dan dalam kes penyelesaian analitik tidak berubah sama sekali. Dengan kata lain, fungsi ralat pada pekali yang ditemui akan mencapai minimum, kerana nilai derivatif separa pada titik ini akan sama dengan sifar.
Jadi, mengikut peraturan pembezaan, persamaan derivatif separa bagi tertib pertama berkenaan dengan pekali akan mengambil borang:
Persamaan terbitan separa tertib pertama berkenaan dengan akan mengambil borang:
Akibatnya, kami menerima sistem persamaan yang mempunyai penyelesaian analitik yang agak mudah:
mulakan{persamaan*}
mulakan{cases}
na + bsumlimits_{i=1}^nx_i β sumlimits_{i=1}^ny_i = 0
sumlimits_{i=1}^nx_i(a +bsumlimits_{i=1}^nx_i β sumlimits_{i=1}^ny_i) = 0
tamat{kes}
tamat{persamaan*}
Sebelum menyelesaikan persamaan, mari kita pramuat, semak sama ada pemuatan adalah betul, dan format data.
Memuatkan dan memformat data
Perlu diingatkan bahawa disebabkan oleh fakta bahawa untuk penyelesaian analitikal, dan seterusnya untuk kecerunan dan keturunan kecerunan stokastik, kami akan menggunakan kod dalam dua variasi: menggunakan perpustakaan numpy dan tanpa menggunakannya, maka kami memerlukan pemformatan data yang sesuai (lihat kod).
Pemuatan data dan kod pemprosesan
# ΠΈΠΌΠΏΠΎΡΡΠΈΡΡΠ΅ΠΌ Π²ΡΠ΅ Π½ΡΠΆΠ½ΡΠ΅ Π½Π°ΠΌ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import math
import pylab as pl
import random
# Π³ΡΠ°ΡΠΈΠΊΠΈ ΠΎΡΠΎΠ±ΡΠ°Π·ΠΈΠΌ Π² Jupyter
%matplotlib inline
# ΡΠΊΠ°ΠΆΠ΅ΠΌ ΡΠ°Π·ΠΌΠ΅Ρ Π³ΡΠ°ΡΠΈΠΊΠΎΠ²
from pylab import rcParams
rcParams['figure.figsize'] = 12, 6
# ΠΎΡΠΊΠ»ΡΡΠΈΠΌ ΠΏΡΠ΅Π΄ΡΠΏΡΠ΅ΠΆΠ΄Π΅Π½ΠΈΡ Anaconda
import warnings
warnings.simplefilter('ignore')
# Π·Π°Π³ΡΡΠ·ΠΈΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΡ
table_zero = pd.read_csv('data_example.txt', header=0, sep='t')
# ΠΏΠΎΡΠΌΠΎΡΡΠΈΠΌ ΠΈΠ½ΡΠΎΡΠΌΠ°ΡΠΈΡ ΠΎ ΡΠ°Π±Π»ΠΈΡΠ΅ ΠΈ Π½Π° ΡΠ°ΠΌΡ ΡΠ°Π±Π»ΠΈΡΡ
print table_zero.info()
print '********************************************'
print table_zero
print '********************************************'
# ΠΏΠΎΠ΄Π³ΠΎΡΠΎΠ²ΠΈΠΌ Π΄Π°Π½Π½ΡΠ΅ Π±Π΅Π· ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ NumPy
x_us = []
[x_us.append(float(i)) for i in table_zero['x']]
print x_us
print type(x_us)
print '********************************************'
y_us = []
[y_us.append(float(i)) for i in table_zero['y']]
print y_us
print type(y_us)
print '********************************************'
# ΠΏΠΎΠ΄Π³ΠΎΡΠΎΠ²ΠΈΠΌ Π΄Π°Π½Π½ΡΠ΅ Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ NumPy
x_np = table_zero[['x']].values
print x_np
print type(x_np)
print x_np.shape
print '********************************************'
y_np = table_zero[['y']].values
print y_np
print type(y_np)
print y_np.shape
print '********************************************'
Visualisasi
Sekarang, selepas kami, pertama, memuatkan data, kedua, menyemak ketepatan pemuatan dan akhirnya memformat data, kami akan menjalankan visualisasi pertama. Kaedah yang sering digunakan untuk ini ialah petak berpasangan perpustakaan Laut Laut. Dalam contoh kami, disebabkan bilangan yang terhad, tidak ada gunanya menggunakan perpustakaan Laut Laut. Kami akan menggunakan perpustakaan biasa Matplotlib dan lihat sahaja pada scatterplot.
Kod Scatterplot
print 'ΠΡΠ°ΡΠΈΠΊ β1 "ΠΠ°Π²ΠΈΡΠΈΠΌΠΎΡΡΡ Π²ΡΡΡΡΠΊΠΈ ΠΎΡ ΠΌΠ΅ΡΡΡΠ° Π³ΠΎΠ΄Π°"'
plt.plot(x_us,y_us,'o',color='green',markersize=16)
plt.xlabel('$Months$', size=16)
plt.ylabel('$Sales$', size=16)
plt.show()
Carta No. 1 "Pergantungan hasil pada bulan dalam setahun"
Penyelesaian analitikal
Mari gunakan alat yang paling biasa dalam ular sawa dan selesaikan sistem persamaan:
mulakan{persamaan*}
mulakan{cases}
na + bsumlimits_{i=1}^nx_i β sumlimits_{i=1}^ny_i = 0
sumlimits_{i=1}^nx_i(a +bsumlimits_{i=1}^nx_i β sumlimits_{i=1}^ny_i) = 0
tamat{kes}
tamat{persamaan*}
Mengikut peraturan Cramer kita akan mencari penentu am, serta penentu oleh dan oleh , selepas itu, membahagikan penentu dengan kepada penentu am - cari pekali , begitu juga kita dapati pekali .
Kod penyelesaian analitikal
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π΄Π»Ρ ΡΠ°ΡΡΠ΅ΡΠ° ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b ΠΏΠΎ ΠΏΡΠ°Π²ΠΈΠ»Ρ ΠΡΠ°ΠΌΠ΅ΡΠ°
def Kramer_method (x,y):
# ΡΡΠΌΠΌΠ° Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ (Π²ΡΠ΅ ΠΌΠ΅ΡΡΡΠ°)
sx = sum(x)
# ΡΡΠΌΠΌΠ° ΠΈΡΡΠΈΠ½Π½ΡΡ
ΠΎΡΠ²Π΅ΡΠΎΠ² (Π²ΡΡΡΡΠΊΠ° Π·Π° Π²Π΅ΡΡ ΠΏΠ΅ΡΠΈΠΎΠ΄)
sy = sum(y)
# ΡΡΠΌΠΌΠ° ΠΏΡΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΡ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ Π½Π° ΠΈΡΡΠΈΠ½Π½ΡΠ΅ ΠΎΡΠ²Π΅ΡΡ
list_xy = []
[list_xy.append(x[i]*y[i]) for i in range(len(x))]
sxy = sum(list_xy)
# ΡΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_x_sq = []
[list_x_sq.append(x[i]**2) for i in range(len(x))]
sx_sq = sum(list_x_sq)
# ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
n = len(x)
# ΠΎΠ±ΡΠΈΠΉ ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΠ΅Π»Ρ
det = sx_sq*n - sx*sx
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΠ΅Π»Ρ ΠΏΠΎ a
det_a = sx_sq*sy - sx*sxy
# ΠΈΡΠΊΠΎΠΌΡΠΉ ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡ a
a = (det_a / det)
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΠ΅Π»Ρ ΠΏΠΎ b
det_b = sxy*n - sy*sx
# ΠΈΡΠΊΠΎΠΌΡΠΉ ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡ b
b = (det_b / det)
# ΠΊΠΎΠ½ΡΡΠΎΠ»ΡΠ½ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ (ΠΏΡΠΎΠΎΠ²Π΅ΡΠΊΠ°)
check1 = (n*b + a*sx - sy)
check2 = (b*sx + a*sx_sq - sxy)
return [round(a,4), round(b,4)]
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΠΈ Π·Π°ΠΏΠΈΡΠ΅ΠΌ ΠΏΡΠ°Π²ΠΈΠ»ΡΠ½ΡΠ΅ ΠΎΡΠ²Π΅ΡΡ
ab_us = Kramer_method(x_us,y_us)
a_us = ab_us[0]
b_us = ab_us[1]
print ' 33[1m' + ' 33[4m' + "ΠΠΏΡΠΈΠΌΠ°Π»ΡΠ½ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', a_us
print 'b =', b_us
print
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π΄Π»Ρ ΠΏΠΎΠ΄ΡΡΠ΅ΡΠ° ΡΡΠΌΠΌΡ ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΈΠ±ΠΎΠΊ
def errors_sq_Kramer_method(answers,x,y):
list_errors_sq = []
for i in range(len(x)):
err = (answers[0] + answers[1]*x[i] - y[i])**2
list_errors_sq.append(err)
return sum(list_errors_sq)
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΠΈ Π·Π°ΠΏΠΈΡΠ΅ΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΠ΅ ΠΎΡΠΈΠ±ΠΊΠΈ
error_sq = errors_sq_Kramer_method(ab_us,x_us,y_us)
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ" + ' 33[0m'
print error_sq
print
# Π·Π°ΠΌΠ΅ΡΠΈΠΌ Π²ΡΠ΅ΠΌΡ ΡΠ°ΡΡΠ΅ΡΠ°
# print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ°ΡΡΠ΅ΡΠ° ΡΡΠΌΠΌΡ ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
# % timeit error_sq = errors_sq_Kramer_method(ab,x_us,y_us)
Inilah yang kami dapat:
Jadi, nilai pekali telah dijumpai, jumlah sisihan kuasa dua telah ditetapkan. Mari kita lukis garis lurus pada histogram serakan mengikut pekali yang ditemui.
Kod baris regresi
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π΄Π»Ρ ΡΠΎΡΠΌΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΠΌΠ°ΡΡΠΈΠ²Π° ΡΠ°ΡΡΡΠ΅ΡΠ½ΡΡ
Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ Π²ΡΡΡΡΠΊΠΈ
def sales_count(ab,x,y):
line_answers = []
[line_answers.append(ab[0]+ab[1]*x[i]) for i in range(len(x))]
return line_answers
# ΠΏΠΎΡΡΡΠΎΠΈΠΌ Π³ΡΠ°ΡΠΈΠΊΠΈ
print 'ΠΡΡΠΈΠΊβ2 "ΠΡΠ°Π²ΠΈΠ»ΡΠ½ΡΠ΅ ΠΈ ΡΠ°ΡΡΠ΅ΡΠ½ΡΠ΅ ΠΎΡΠ²Π΅ΡΡ"'
plt.plot(x_us,y_us,'o',color='green',markersize=16, label = '$True$ $answers$')
plt.plot(x_us, sales_count(ab_us,x_us,y_us), color='red',lw=4,
label='$Function: a + bx,$ $where$ $a='+str(round(ab_us[0],2))+',$ $b='+str(round(ab_us[1],2))+'$')
plt.xlabel('$Months$', size=16)
plt.ylabel('$Sales$', size=16)
plt.legend(loc=1, prop={'size': 16})
plt.show()
Carta No. 2 βJawapan yang betul dan dikiraβ
Anda boleh melihat graf sisihan bagi setiap bulan. Dalam kes kami, kami tidak akan memperoleh sebarang nilai praktikal yang ketara daripadanya, tetapi kami akan memenuhi rasa ingin tahu kami tentang sejauh mana persamaan regresi linear mudah mencirikan pergantungan hasil pada bulan dalam setahun.
Kod carta sisihan
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π΄Π»Ρ ΡΠΎΡΠΌΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΠΌΠ°ΡΡΠΈΠ²Π° ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ Π² ΠΏΡΠΎΡΠ΅Π½ΡΠ°Ρ
def error_per_month(ab,x,y):
sales_c = sales_count(ab,x,y)
errors_percent = []
for i in range(len(x)):
errors_percent.append(100*(sales_c[i]-y[i])/y[i])
return errors_percent
# ΠΏΠΎΡΡΡΠΎΠΈΠΌ Π³ΡΠ°ΡΠΈΠΊ
print 'ΠΡΠ°ΡΠΈΠΊβ3 "ΠΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΡ ΠΏΠΎ-ΠΌΠ΅ΡΡΡΠ½ΠΎ, %"'
plt.gca().bar(x_us, error_per_month(ab_us,x_us,y_us), color='brown')
plt.xlabel('Months', size=16)
plt.ylabel('Calculation error, %', size=16)
plt.show()
Carta No. 3 "Sisihan, %"
Tidak sempurna, tetapi kami menyelesaikan tugas kami.
Mari kita tulis fungsi yang, untuk menentukan pekali ΠΈ menggunakan perpustakaan numpy, lebih tepat lagi, kami akan menulis dua fungsi: satu menggunakan matriks pseudoinverse (tidak disyorkan dalam amalan, kerana prosesnya kompleks dan tidak stabil dari segi pengiraan), satu lagi menggunakan persamaan matriks.
Kod Penyelesaian Analitikal (NumPy)
# Π΄Π»Ρ Π½Π°ΡΠ°Π»Π° Π΄ΠΎΠ±Π°Π²ΠΈΠΌ ΡΡΠΎΠ»Π±Π΅Ρ Ρ Π½Π΅ ΠΈΠ·ΠΌΠ΅Π½ΡΡΡΠΈΠΌΡΡ Π·Π½Π°ΡΠ΅Π½ΠΈΠ΅ΠΌ Π² 1.
# ΠΠ°Π½Π½ΡΠΉ ΡΡΠΎΠ»Π±Π΅Ρ Π½ΡΠΆΠ΅Π½ Π΄Π»Ρ ΡΠΎΠ³ΠΎ, ΡΡΠΎΠ±Ρ Π½Π΅ ΠΎΠ±ΡΠ°Π±Π°ΡΡΠ²Π°ΡΡ ΠΎΡΠ΄Π΅Π»ΡΠ½ΠΎ ΠΊΠΎΡΡΡΠΈΡΠ΅Π½Ρ a
vector_1 = np.ones((x_np.shape[0],1))
x_np = table_zero[['x']].values # Π½Π° Π²ΡΡΠΊΠΈΠΉ ΡΠ»ΡΡΠ°ΠΉ ΠΏΡΠΈΠ²Π΅Π΄Π΅ΠΌ Π² ΠΏΠ΅ΡΠ²ΠΈΡΠ½ΡΠΉ ΡΠΎΡΠΌΠ°Ρ Π²Π΅ΠΊΡΠΎΡ x_np
x_np = np.hstack((vector_1,x_np))
# ΠΏΡΠΎΠ²Π΅ΡΠΈΠΌ ΡΠΎ, ΡΡΠΎ Π²ΡΠ΅ ΡΠ΄Π΅Π»Π°Π»ΠΈ ΠΏΡΠ°Π²ΠΈΠ»ΡΠ½ΠΎ
print vector_1[0:3]
print x_np[0:3]
print '***************************************'
print
# Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ, ΠΊΠΎΡΠΎΡΠ°Ρ ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅Ρ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ ΠΏΡΠ΅Π²Π΄ΠΎΠΎΠ±ΡΠ°ΡΠ½ΠΎΠΉ ΠΌΠ°ΡΡΠΈΡΡ
def pseudoinverse_matrix(X, y):
# Π·Π°Π΄Π°Π΅ΠΌ ΡΠ²Π½ΡΠΉ ΡΠΎΡΠΌΠ°Ρ ΠΌΠ°ΡΡΠΈΡΡ ΠΏΡΠΈΠ·Π½Π°ΠΊΠΎΠ²
X = np.matrix(X)
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅ΠΌ ΡΡΠ°Π½ΡΠΏΠΎΠ½ΠΈΡΠΎΠ²Π°Π½Π½ΡΡ ΠΌΠ°ΡΡΠΈΡΡ
XT = X.T
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅ΠΌ ΠΊΠ²Π°Π΄ΡΠ°ΡΠ½ΡΡ ΠΌΠ°ΡΡΠΈΡΡ
XTX = XT*X
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅ΠΌ ΠΏΡΠ΅Π²Π΄ΠΎΠΎΠ±ΡΠ°ΡΠ½ΡΡ ΠΌΠ°ΡΡΠΈΡΡ
inv = np.linalg.pinv(XTX)
# Π·Π°Π΄Π°Π΅ΠΌ ΡΠ²Π½ΡΠΉ ΡΠΎΡΠΌΠ°Ρ ΠΌΠ°ΡΡΠΈΡΡ ΠΎΡΠ²Π΅ΡΠΎΠ²
y = np.matrix(y)
# Π½Π°Ρ
ΠΎΠ΄ΠΈΠΌ Π²Π΅ΠΊΡΠΎΡ Π²Π΅ΡΠΎΠ²
return (inv*XT)*y
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ
ab_np = pseudoinverse_matrix(x_np, y_np)
print ab_np
print '***************************************'
print
# Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ, ΠΊΠΎΡΠΎΡΠ°Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅Ρ Π΄Π»Ρ ΡΠ΅ΡΠ΅Π½ΠΈΡ ΠΌΠ°ΡΡΠΈΡΠ½ΠΎΠ΅ ΡΡΠ°Π²Π½Π΅Π½ΠΈΠ΅
def matrix_equation(X,y):
a = np.dot(X.T, X)
b = np.dot(X.T, y)
return np.linalg.solve(a, b)
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ
ab_np = matrix_equation(x_np,y_np)
print ab_np
Mari kita bandingkan masa yang digunakan untuk menentukan pekali ΠΈ , selaras dengan 3 kaedah yang dibentangkan.
Kod untuk mengira masa pengiraan
print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ°ΡΡΠ΅ΡΠ° ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² Π±Π΅Π· ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy:" + ' 33[0m'
% timeit ab_us = Kramer_method(x_us,y_us)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ°ΡΡΠ΅ΡΠ° ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ ΠΏΡΠ΅Π²Π΄ΠΎΠΎΠ±ΡΠ°ΡΠ½ΠΎΠΉ ΠΌΠ°ΡΡΠΈΡΡ:" + ' 33[0m'
%timeit ab_np = pseudoinverse_matrix(x_np, y_np)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ°ΡΡΠ΅ΡΠ° ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ ΠΌΠ°ΡΡΠΈΡΠ½ΠΎΠ³ΠΎ ΡΡΠ°Π²Π½Π΅Π½ΠΈΡ:" + ' 33[0m'
%timeit ab_np = matrix_equation(x_np, y_np)
Dengan jumlah data yang kecil, fungsi "tulisan sendiri" muncul di hadapan, yang mencari pekali menggunakan kaedah Cramer.
Kini anda boleh beralih kepada cara lain untuk mencari pekali ΠΈ .
Keturunan Kecerunan
Pertama, mari kita tentukan apa itu kecerunan. Ringkasnya, kecerunan ialah segmen yang menunjukkan arah pertumbuhan maksimum sesuatu fungsi. Secara analogi dengan mendaki gunung, di mana muka kecerunan adalah tempat pendakian paling curam ke puncak gunung itu. Membangunkan contoh dengan gunung, kita ingat bahawa sebenarnya kita memerlukan keturunan yang paling curam untuk sampai ke tanah pamah secepat mungkin, iaitu minimum - tempat di mana fungsi tidak meningkat atau berkurangan. Pada ketika ini derivatif akan sama dengan sifar. Oleh itu, kita tidak memerlukan kecerunan, tetapi antikecerunan. Untuk mencari antikecerunan anda hanya perlu mendarabkan kecerunan dengan -1 (tolak satu).
Marilah kita memberi perhatian kepada fakta bahawa fungsi boleh mempunyai beberapa minima, dan setelah turun ke salah satu daripadanya menggunakan algoritma yang dicadangkan di bawah, kita tidak akan dapat mencari minimum lain, yang mungkin lebih rendah daripada yang ditemui. Mari berehat, ini bukan ancaman kepada kami! Dalam kes kami, kami berurusan dengan minimum tunggal, sejak fungsi kami pada graf ialah parabola sekata. Dan seperti yang kita semua harus tahu dengan baik dari kursus matematik sekolah kita, parabola hanya mempunyai satu minimum.
Selepas kami mengetahui mengapa kami memerlukan kecerunan, dan juga bahawa kecerunan adalah segmen, iaitu, vektor dengan koordinat yang diberikan, yang merupakan pekali yang sama. ΠΈ kita boleh melaksanakan penurunan kecerunan.
Sebelum memulakan, saya cadangkan membaca hanya beberapa ayat tentang algoritma keturunan:
- Kami menentukan secara pseudo-rawak koordinat bagi pekali ΠΈ . Dalam contoh kami, kami akan menentukan pekali berhampiran sifar. Ini adalah amalan biasa, tetapi setiap kes mungkin mempunyai amalannya sendiri.
- Dari koordinat tolak nilai terbitan separa tertib pertama pada titik itu . Jadi, jika derivatifnya positif, maka fungsinya bertambah. Oleh itu, dengan menolak nilai terbitan, kita akan bergerak ke arah pertumbuhan yang bertentangan, iaitu ke arah keturunan. Jika terbitan adalah negatif, maka fungsi pada titik ini berkurangan dan dengan menolak nilai terbitan kita bergerak ke arah penurunan.
- Kami menjalankan operasi yang sama dengan koordinat : tolak nilai terbitan separa pada titik .
- Agar tidak melompat ke atas minimum dan terbang ke angkasa lepas, perlu menetapkan saiz langkah ke arah penurunan. Secara umum, anda boleh menulis keseluruhan artikel tentang cara menetapkan langkah dengan betul dan cara mengubahnya semasa proses penurunan untuk mengurangkan kos pengiraan. Tetapi sekarang kami mempunyai tugas yang sedikit berbeza di hadapan kami, dan kami akan menetapkan saiz langkah menggunakan kaedah saintifik "poke" atau, seperti yang mereka katakan dalam bahasa biasa, secara empirik.
- Sebaik sahaja kita dari koordinat yang diberikan ΠΈ tolak nilai derivatif, kita mendapat koordinat baharu ΠΈ . Kami mengambil langkah seterusnya (penolakan), sudah dari koordinat yang dikira. Jadi kitaran bermula lagi dan lagi, sehingga penumpuan yang diperlukan dicapai.
Semua! Kini kami bersedia untuk pergi mencari gaung paling dalam di Palung Mariana. Mari kita mulakan.
Kod untuk keturunan kecerunan
# Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Π±Π΅Π· ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy.
# Π€ΡΠ½ΠΊΡΠΈΡ Π½Π° Π²Ρ
ΠΎΠ΄ ΠΏΡΠΈΠ½ΠΈΠΌΠ°Π΅Ρ Π΄ΠΈΠ°ΠΏΠ°Π·ΠΎΠ½Ρ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ x,y, Π΄Π»ΠΈΠ½Ρ ΡΠ°Π³Π° (ΠΏΠΎ ΡΠΌΠΎΠ»ΡΠ°Π½ΠΈΡ=0,1), Π΄ΠΎΠΏΡΡΡΠΈΠΌΡΡ ΠΏΠΎΠ³ΡΠ΅ΡΠ½ΠΎΡΡΡ(tolerance)
def gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001):
# ΡΡΠΌΠΌΠ° Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ (Π²ΡΠ΅ ΠΌΠ΅ΡΡΡΠ°)
sx = sum(x_us)
# ΡΡΠΌΠΌΠ° ΠΈΡΡΠΈΠ½Π½ΡΡ
ΠΎΡΠ²Π΅ΡΠΎΠ² (Π²ΡΡΡΡΠΊΠ° Π·Π° Π²Π΅ΡΡ ΠΏΠ΅ΡΠΈΠΎΠ΄)
sy = sum(y_us)
# ΡΡΠΌΠΌΠ° ΠΏΡΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΡ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ Π½Π° ΠΈΡΡΠΈΠ½Π½ΡΠ΅ ΠΎΡΠ²Π΅ΡΡ
list_xy = []
[list_xy.append(x_us[i]*y_us[i]) for i in range(len(x_us))]
sxy = sum(list_xy)
# ΡΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_x_sq = []
[list_x_sq.append(x_us[i]**2) for i in range(len(x_us))]
sx_sq = sum(list_x_sq)
# ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
num = len(x_us)
# Π½Π°ΡΠ°Π»ΡΠ½ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ², ΠΎΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½ΡΠ΅ ΠΏΡΠ΅Π²Π΄ΠΎΡΠ»ΡΡΠ°ΠΉΠ½ΡΠΌ ΠΎΠ±ΡΠ°Π·ΠΎΠΌ
a = float(random.uniform(-0.5, 0.5))
b = float(random.uniform(-0.5, 0.5))
# ΡΠΎΠ·Π΄Π°Π΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Ρ ΠΎΡΠΈΠ±ΠΊΠ°ΠΌΠΈ, Π΄Π»Ρ ΡΡΠ°ΡΡΠ° ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅ΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΡ 1 ΠΈ 0
# ΠΏΠΎΡΠ»Π΅ Π·Π°Π²Π΅ΡΡΠ΅Π½ΠΈΡ ΡΠΏΡΡΠΊΠ° ΡΡΠ°ΡΡΠΎΠ²ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΡΠ΄Π°Π»ΠΈΠΌ
errors = [1,0]
# Π·Π°ΠΏΡΡΠΊΠ°Π΅ΠΌ ΡΠΈΠΊΠ» ΡΠΏΡΡΠΊΠ°
# ΡΠΈΠΊΠ» ΡΠ°Π±ΠΎΡΠ°Π΅Ρ Π΄ΠΎ ΡΠ΅Ρ
ΠΏΠΎΡ, ΠΏΠΎΠΊΠ° ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠ΅ ΠΏΠΎΡΠ»Π΅Π΄Π½Π΅ΠΉ ΠΎΡΠΈΠ±ΠΊΠΈ ΡΡΠΌΠΌΡ ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡ ΠΏΡΠ΅Π΄ΡΠ΄ΡΡΠ΅ΠΉ, Π½Π΅ Π±ΡΠ΄Π΅Ρ ΠΌΠ΅Π½ΡΡΠ΅ tolerance
while abs(errors[-1]-errors[-2]) > tolerance:
a_step = a - l*(num*a + b*sx - sy)/num
b_step = b - l*(a*sx + b*sx_sq - sxy)/num
a = a_step
b = b_step
ab = [a,b]
errors.append(errors_sq_Kramer_method(ab,x_us,y_us))
return (ab),(errors[2:])
# Π·Π°ΠΏΠΈΡΠ΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_parametres_gradient_descence = gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001)
print ' 33[1m' + ' 33[4m' + "ΠΠ½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', round(list_parametres_gradient_descence[0][0],3)
print 'b =', round(list_parametres_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
print round(list_parametres_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "ΠΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ Π² Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠΌ ΡΠΏΡΡΠΊΠ΅:" + ' 33[0m'
print len(list_parametres_gradient_descence[1])
print
Kami menyelam ke bahagian paling bawah Palung Mariana dan di sana kami menemui semua nilai pekali yang sama ΠΈ , iaitu apa yang dijangkakan.
Mari kita menyelam lagi, cuma kali ini kenderaan laut dalam kita akan dipenuhi dengan teknologi lain iaitu perpustakaan numpy.
Kod untuk keturunan kecerunan (NumPy)
# ΠΏΠ΅ΡΠ΅Π΄ ΡΠ΅ΠΌ ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΡΡ ΡΡΠ½ΠΊΡΠΈΡ Π΄Π»Ρ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy,
# Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΠΎΠΏΡΠ΅Π΄Π΅Π»Π΅Π½ΠΈΡ ΡΡΠΌΠΌΡ ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΡΠ°ΠΊΠΆΠ΅ Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ NumPy
def error_square_numpy(ab,x_np,y_np):
y_pred = np.dot(x_np,ab)
error = y_pred - y_np
return sum((error)**2)
# Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy.
# Π€ΡΠ½ΠΊΡΠΈΡ Π½Π° Π²Ρ
ΠΎΠ΄ ΠΏΡΠΈΠ½ΠΈΠΌΠ°Π΅Ρ Π΄ΠΈΠ°ΠΏΠ°Π·ΠΎΠ½Ρ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ x,y, Π΄Π»ΠΈΠ½Ρ ΡΠ°Π³Π° (ΠΏΠΎ ΡΠΌΠΎΠ»ΡΠ°Π½ΠΈΡ=0,1), Π΄ΠΎΠΏΡΡΡΠΈΠΌΡΡ ΠΏΠΎΠ³ΡΠ΅ΡΠ½ΠΎΡΡΡ(tolerance)
def gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001):
# ΡΡΠΌΠΌΠ° Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ (Π²ΡΠ΅ ΠΌΠ΅ΡΡΡΠ°)
sx = float(sum(x_np[:,1]))
# ΡΡΠΌΠΌΠ° ΠΈΡΡΠΈΠ½Π½ΡΡ
ΠΎΡΠ²Π΅ΡΠΎΠ² (Π²ΡΡΡΡΠΊΠ° Π·Π° Π²Π΅ΡΡ ΠΏΠ΅ΡΠΈΠΎΠ΄)
sy = float(sum(y_np))
# ΡΡΠΌΠΌΠ° ΠΏΡΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΡ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ Π½Π° ΠΈΡΡΠΈΠ½Π½ΡΠ΅ ΠΎΡΠ²Π΅ΡΡ
sxy = x_np*y_np
sxy = float(sum(sxy[:,1]))
# ΡΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
sx_sq = float(sum(x_np[:,1]**2))
# ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
num = float(x_np.shape[0])
# Π½Π°ΡΠ°Π»ΡΠ½ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ², ΠΎΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½ΡΠ΅ ΠΏΡΠ΅Π²Π΄ΠΎΡΠ»ΡΡΠ°ΠΉΠ½ΡΠΌ ΠΎΠ±ΡΠ°Π·ΠΎΠΌ
a = float(random.uniform(-0.5, 0.5))
b = float(random.uniform(-0.5, 0.5))
# ΡΠΎΠ·Π΄Π°Π΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Ρ ΠΎΡΠΈΠ±ΠΊΠ°ΠΌΠΈ, Π΄Π»Ρ ΡΡΠ°ΡΡΠ° ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅ΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΡ 1 ΠΈ 0
# ΠΏΠΎΡΠ»Π΅ Π·Π°Π²Π΅ΡΡΠ΅Π½ΠΈΡ ΡΠΏΡΡΠΊΠ° ΡΡΠ°ΡΡΠΎΠ²ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΡΠ΄Π°Π»ΠΈΠΌ
errors = [1,0]
# Π·Π°ΠΏΡΡΠΊΠ°Π΅ΠΌ ΡΠΈΠΊΠ» ΡΠΏΡΡΠΊΠ°
# ΡΠΈΠΊΠ» ΡΠ°Π±ΠΎΡΠ°Π΅Ρ Π΄ΠΎ ΡΠ΅Ρ
ΠΏΠΎΡ, ΠΏΠΎΠΊΠ° ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠ΅ ΠΏΠΎΡΠ»Π΅Π΄Π½Π΅ΠΉ ΠΎΡΠΈΠ±ΠΊΠΈ ΡΡΠΌΠΌΡ ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡ ΠΏΡΠ΅Π΄ΡΠ΄ΡΡΠ΅ΠΉ, Π½Π΅ Π±ΡΠ΄Π΅Ρ ΠΌΠ΅Π½ΡΡΠ΅ tolerance
while abs(errors[-1]-errors[-2]) > tolerance:
a_step = a - l*(num*a + b*sx - sy)/num
b_step = b - l*(a*sx + b*sx_sq - sxy)/num
a = a_step
b = b_step
ab = np.array([[a],[b]])
errors.append(error_square_numpy(ab,x_np,y_np))
return (ab),(errors[2:])
# Π·Π°ΠΏΠΈΡΠ΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_parametres_gradient_descence = gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001)
print ' 33[1m' + ' 33[4m' + "ΠΠ½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', round(list_parametres_gradient_descence[0][0],3)
print 'b =', round(list_parametres_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
print round(list_parametres_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "ΠΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ Π² Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠΌ ΡΠΏΡΡΠΊΠ΅:" + ' 33[0m'
print len(list_parametres_gradient_descence[1])
print
Nilai pekali ΠΈ tidak boleh diubah.
Mari kita lihat bagaimana ralat berubah semasa penurunan kecerunan, iaitu, bagaimana jumlah sisihan kuasa dua berubah dengan setiap langkah.
Kod untuk memplot jumlah sisihan kuasa dua
print 'ΠΡΠ°ΡΠΈΠΊβ4 "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΠΏΠΎ-ΡΠ°Π³ΠΎΠ²ΠΎ"'
plt.plot(range(len(list_parametres_gradient_descence[1])), list_parametres_gradient_descence[1], color='red', lw=3)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
Graf No. 4 "Jumlah sisihan kuasa dua semasa penurunan kecerunan"
Pada graf kita melihat bahawa dengan setiap langkah ralat berkurangan, dan selepas beberapa lelaran tertentu kita memerhatikan garis yang hampir mendatar.
Akhir sekali, mari kita anggarkan perbezaan dalam masa pelaksanaan kod:
Kod untuk menentukan masa pengiraan penurunan kecerunan
print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Π±Π΅Π· ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy:" + ' 33[0m'
%timeit list_parametres_gradient_descence = gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy:" + ' 33[0m'
%timeit list_parametres_gradient_descence = gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001)
Mungkin kita melakukan sesuatu yang salah, tetapi sekali lagi ia adalah fungsi "tulisan rumah" yang mudah yang tidak menggunakan perpustakaan numpy mengatasi masa pengiraan fungsi menggunakan perpustakaan numpy.
Tetapi kita tidak berdiam diri, tetapi sedang bergerak ke arah mengkaji satu lagi cara yang menarik untuk menyelesaikan persamaan regresi linear mudah. jumpa!
Penurunan kecerunan stokastik
Untuk memahami dengan cepat prinsip operasi keturunan kecerunan stokastik, adalah lebih baik untuk menentukan perbezaannya daripada keturunan kecerunan biasa. Kami, dalam kes keturunan kecerunan, dalam persamaan derivatif bagi ΠΈ menggunakan jumlah nilai semua ciri dan jawapan benar yang tersedia dalam sampel (iaitu, jumlah semua ΠΈ ). Dalam keturunan kecerunan stokastik, kami tidak akan menggunakan semua nilai yang ada dalam sampel, tetapi sebaliknya, pilih secara rawak pseudo indeks sampel dan gunakan nilainya.
Sebagai contoh, jika indeks ditentukan menjadi nombor 3 (tiga), maka kita mengambil nilainya ΠΈ , kemudian kita menggantikan nilai ke dalam persamaan derivatif dan menentukan koordinat baharu. Kemudian, setelah menentukan koordinat, kami sekali lagi pseudo-rawak menentukan indeks sampel, menggantikan nilai yang sepadan dengan indeks ke dalam persamaan pembezaan separa, dan menentukan koordinat dengan cara yang baru ΠΈ dan lain-lain. sehingga penumpuan bertukar hijau. Pada pandangan pertama, ia mungkin tidak kelihatan seperti ini boleh berfungsi sama sekali, tetapi ia berfungsi. Memang benar bahawa perlu diperhatikan bahawa ralat tidak berkurangan dengan setiap langkah, tetapi pasti ada kecenderungan.
Apakah kelebihan penurunan kecerunan stokastik berbanding konvensional? Jika saiz sampel kami sangat besar dan diukur dalam puluhan ribu nilai, maka lebih mudah untuk memproses, katakan, seribu rawak daripadanya, berbanding keseluruhan sampel. Di sinilah penurunan kecerunan stokastik dimainkan. Dalam kes kami, sudah tentu, kami tidak akan melihat banyak perbezaan.
Mari lihat kodnya.
Kod untuk keturunan kecerunan stokastik
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΡΡΠΎΡ
.Π³ΡΠ°Π΄.ΡΠ°Π³Π°
def stoch_grad_step_usual(vector_init, x_us, ind, y_us, l):
# Π²ΡΠ±ΠΈΡΠ°Π΅ΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΠ΅ ΠΈΠΊΡ, ΠΊΠΎΡΠΎΡΠΎΠ΅ ΡΠΎΠΎΡΠ²Π΅ΡΡΡΠ²ΡΠ΅Ρ ΡΠ»ΡΡΠ°ΠΉΠ½ΠΎΠΌΡ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡΠ° ind
# (ΡΠΌ.Ρ-ΡΠΈΡ stoch_grad_descent_usual)
x = x_us[ind]
# ΡΠ°ΡΡΡΠΈΡΡΠ²ΡΠ°Π΅ΠΌ Π·Π½Π°ΡΠ΅Π½ΠΈΠ΅ y (Π²ΡΡΡΡΠΊΡ), ΠΊΠΎΡΠΎΡΠ°Ρ ΡΠΎΠΎΡΠ²Π΅ΡΡΡΠ²ΡΠ΅Ρ Π²ΡΠ±ΡΠ°Π½Π½ΠΎΠΌΡ Π·Π½Π°ΡΠ΅Π½ΠΈΡ x
y_pred = vector_init[0] + vector_init[1]*x_us[ind]
# Π²ΡΡΠΈΡΠ»ΡΠ΅ΠΌ ΠΎΡΠΈΠ±ΠΊΡ ΡΠ°ΡΡΠ΅ΡΠ½ΠΎΠΉ Π²ΡΡΡΡΠΊΠΈ ΠΎΡΠ½ΠΎΡΠΈΡΠ΅Π»ΡΠ½ΠΎ ΠΏΡΠ΅Π΄ΡΡΠ°Π²Π»Π΅Π½Π½ΠΎΠΉ Π² Π²ΡΠ±ΠΎΡΠΊΠ΅
error = y_pred - y_us[ind]
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅ΠΌ ΠΏΠ΅ΡΠ²ΡΡ ΠΊΠΎΠΎΡΠ΄ΠΈΠ½Π°ΡΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ° ab
grad_a = error
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΡΠ΅ΠΌ Π²ΡΠΎΡΡΡ ΠΊΠΎΠΎΡΠ΄ΠΈΠ½Π°ΡΡ ab
grad_b = x_us[ind]*error
# Π²ΡΡΠΈΡΠ»ΡΠ΅ΠΌ Π½ΠΎΠ²ΡΠΉ Π²Π΅ΠΊΡΠΎΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ²
vector_new = [vector_init[0]-l*grad_a, vector_init[1]-l*grad_b]
return vector_new
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΡΡΠΎΡ
.Π³ΡΠ°Π΄.ΡΠΏΡΡΠΊΠ°
def stoch_grad_descent_usual(x_us, y_us, l=0.1, steps = 800):
# Π΄Π»Ρ ΡΠ°ΠΌΠΎΠ³ΠΎ Π½Π°ΡΠ°Π»Π° ΡΠ°Π±ΠΎΡΡ ΡΡΠ½ΠΊΡΠΈΠΈ Π·Π°Π΄Π°Π΄ΠΈΠΌ Π½Π°ΡΠ°Π»ΡΠ½ΡΠ΅ Π·Π½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ²
vector_init = [float(random.uniform(-0.5, 0.5)), float(random.uniform(-0.5, 0.5))]
errors = []
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΠΈΠΊΠ» ΡΠΏΡΡΠΊΠ°
# ΡΠΈΠΊΠ» ΡΠ°ΡΡΠΈΡΠ°Π½ Π½Π° ΠΎΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠ΅ ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΡΠ°Π³ΠΎΠ² (steps)
for i in range(steps):
ind = random.choice(range(len(x_us)))
new_vector = stoch_grad_step_usual(vector_init, x_us, ind, y_us, l)
vector_init = new_vector
errors.append(errors_sq_Kramer_method(vector_init,x_us,y_us))
return (vector_init),(errors)
# Π·Π°ΠΏΠΈΡΠ΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.1, steps = 800)
print ' 33[1m' + ' 33[4m' + "ΠΠ½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "ΠΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ Π² ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠΌ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠΌ ΡΠΏΡΡΠΊΠ΅:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
Kami melihat dengan teliti pada pekali dan mendapati diri kami bertanya soalan "Bagaimana ini boleh berlaku?" Kami mendapat nilai pekali lain ΠΈ . Mungkin keturunan kecerunan stokastik telah menemui parameter yang lebih optimum untuk persamaan? Malangnya tidak. Ia cukup untuk melihat jumlah sisihan kuasa dua dan melihat bahawa dengan nilai baru pekali, ralatnya lebih besar. Kami tidak tergesa-gesa untuk berputus asa. Mari bina graf perubahan ralat.
Kod untuk memplot jumlah sisihan kuasa dua dalam keturunan kecerunan stokastik
print 'ΠΡΠ°ΡΠΈΠΊ β5 "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΠΏΠΎ-ΡΠ°Π³ΠΎΠ²ΠΎ"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1])), list_parametres_stoch_gradient_descence[1], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
Graf No. 5 "Jumlah sisihan kuasa dua semasa penurunan kecerunan stokastik"
Melihat kepada jadual, segala-galanya jatuh ke tempatnya dan kini kami akan membetulkan segala-galanya.
Jadi apa yang berlaku? Perkara berikut berlaku. Apabila kami memilih bulan secara rawak, maka untuk bulan yang dipilih itulah algoritma kami berusaha untuk mengurangkan ralat dalam mengira hasil. Kemudian kami memilih bulan lain dan ulangi pengiraan, tetapi kami mengurangkan ralat untuk bulan kedua yang dipilih. Sekarang ingat bahawa dua bulan pertama menyimpang dengan ketara daripada garis persamaan regresi linear mudah. Ini bermakna apabila mana-mana dua bulan ini dipilih, dengan mengurangkan ralat setiap satu daripadanya, algoritma kami secara serius meningkatkan ralat untuk keseluruhan sampel. Jadi apa yang perlu dilakukan? Jawapannya mudah: anda perlu mengurangkan langkah turun. Lagipun, dengan mengurangkan langkah penurunan, ralat juga akan berhenti "melompat" ke atas dan ke bawah. Atau sebaliknya, ralat "melompat" tidak akan berhenti, tetapi ia tidak akan melakukannya dengan cepat :) Mari semak.
Kod untuk menjalankan SGD dengan kenaikan yang lebih kecil
# Π·Π°ΠΏΡΡΡΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ, ΡΠΌΠ΅Π½ΡΡΠΈΠ² ΡΠ°Π³ Π² 100 ΡΠ°Π· ΠΈ ΡΠ²Π΅Π»ΠΈΡΠΈΠ² ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΡΠ°Π³ΠΎΠ² ΡΠΎΠΎΡΠ²Π΅ΡΡΠ²ΡΡΡΠ΅
list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.001, steps = 80000)
print ' 33[1m' + ' 33[4m' + "ΠΠ½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "ΠΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ Π² ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠΌ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠΌ ΡΠΏΡΡΠΊΠ΅:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
print 'ΠΡΠ°ΡΠΈΠΊ β6 "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΠΏΠΎ-ΡΠ°Π³ΠΎΠ²ΠΎ"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1])), list_parametres_stoch_gradient_descence[1], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
Graf No. 6 "Jumlah sisihan kuasa dua semasa penurunan kecerunan stokastik (80 ribu langkah)"
Pekali telah bertambah baik, tetapi masih tidak ideal. Secara hipotesis, ini boleh diperbetulkan dengan cara ini. Kami memilih, sebagai contoh, dalam 1000 lelaran terakhir nilai pekali yang ralat minimum dibuat. Benar, untuk ini kita juga perlu menulis nilai pekali itu sendiri. Kami tidak akan melakukan ini, sebaliknya memberi perhatian kepada jadual. Ia kelihatan lancar dan ralat kelihatan berkurangan sama rata. Sebenarnya ini tidak benar. Mari lihat 1000 lelaran pertama dan bandingkan dengan yang terakhir.
Kod untuk carta SGD (1000 langkah pertama)
print 'ΠΡΠ°ΡΠΈΠΊ β7 "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΠΏΠΎ-ΡΠ°Π³ΠΎΠ²ΠΎ. ΠΠ΅ΡΠ²ΡΠ΅ 1000 ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1][:1000])),
list_parametres_stoch_gradient_descence[1][:1000], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
print 'ΠΡΠ°ΡΠΈΠΊ β7 "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ ΠΏΠΎ-ΡΠ°Π³ΠΎΠ²ΠΎ. ΠΠΎΡΠ»Π΅Π΄Π½ΠΈΠ΅ 1000 ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1][-1000:])),
list_parametres_stoch_gradient_descence[1][-1000:], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
Graf No. 7 βJumlah sisihan kuasa dua SGD (1000 langkah pertama)β
Graf No. 8 βJumlah sisihan kuasa dua SGD (1000 langkah terakhir)β
Pada awal-awal keturunan, kami memerhatikan penurunan ralat yang agak seragam dan curam. Dalam lelaran terakhir, kita melihat bahawa ralat berlaku di sekitar nilai 1,475 dan pada beberapa ketika menyamai nilai optimum ini, tetapi kemudian ia masih meningkat... Saya ulangi, anda boleh menulis nilai-nilai pekali ΠΈ , dan kemudian pilih yang ralatnya adalah minimum. Walau bagaimanapun, kami mempunyai masalah yang lebih serius: kami terpaksa mengambil 80 ribu langkah (lihat kod) untuk mendapatkan nilai yang hampir optimum. Dan ini sudah bercanggah dengan idea untuk menjimatkan masa pengiraan dengan keturunan kecerunan stokastik berbanding dengan keturunan kecerunan. Apa yang boleh diperbetulkan dan diperbaiki? Tidak sukar untuk menyedari bahawa dalam lelaran pertama kita dengan yakin akan menurun dan, oleh itu, kita harus meninggalkan satu langkah besar dalam lelaran pertama dan mengurangkan langkah semasa kita bergerak ke hadapan. Kami tidak akan melakukan ini dalam artikel ini - ia sudah terlalu panjang. Mereka yang ingin boleh berfikir sendiri bagaimana untuk melakukan ini, ia tidak sukar :)
Sekarang mari kita lakukan penurunan kecerunan stokastik menggunakan perpustakaan numpy (dan jangan kita tersandung pada batu yang kita kenal pasti sebelum ini)
Kod untuk Keturunan Kecerunan Stokastik (NumPy)
# Π΄Π»Ρ Π½Π°ΡΠ°Π»Π° Π½Π°ΠΏΠΈΡΠ΅ΠΌ ΡΡΠ½ΠΊΡΠΈΡ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠ°Π³Π°
def stoch_grad_step_numpy(vector_init, X, ind, y, l):
x = X[ind]
y_pred = np.dot(x,vector_init)
err = y_pred - y[ind]
grad_a = err
grad_b = x[1]*err
return vector_init - l*np.array([grad_a, grad_b])
# ΠΎΠΏΡΠ΅Π΄Π΅Π»ΠΈΠΌ ΡΡΠ½ΠΊΡΠΈΡ ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠ³ΠΎ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ°
def stoch_grad_descent_numpy(X, y, l=0.1, steps = 800):
vector_init = np.array([[np.random.randint(X.shape[0])], [np.random.randint(X.shape[0])]])
errors = []
for i in range(steps):
ind = np.random.randint(X.shape[0])
new_vector = stoch_grad_step_numpy(vector_init, X, ind, y, l)
vector_init = new_vector
errors.append(error_square_numpy(vector_init,X,y))
return (vector_init), (errors)
# Π·Π°ΠΏΠΈΡΠ΅ΠΌ ΠΌΠ°ΡΡΠΈΠ² Π·Π½Π°ΡΠ΅Π½ΠΈΠΉ
list_parametres_stoch_gradient_descence = stoch_grad_descent_numpy(x_np, y_np, l=0.001, steps = 80000)
print ' 33[1m' + ' 33[4m' + "ΠΠ½Π°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠΎΠ² a ΠΈ b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Π‘ΡΠΌΠΌΠ° ΠΊΠ²Π°Π΄ΡΠ°ΡΠΎΠ² ΠΎΡΠΊΠ»ΠΎΠ½Π΅Π½ΠΈΠΉ:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "ΠΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΠΈΡΠ΅ΡΠ°ΡΠΈΠΉ Π² ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠΌ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠΌ ΡΠΏΡΡΠΊΠ΅:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
print
Nilainya ternyata hampir sama seperti ketika menurun tanpa menggunakan numpy. Walau bagaimanapun, ini adalah logik.
Mari kita ketahui berapa lama penurunan kecerunan stokastik mengambil masa kita.
Kod untuk menentukan masa pengiraan SGD (80 ribu langkah)
print ' 33[1m' + ' 33[4m' +
"ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠ³ΠΎ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Π±Π΅Π· ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy:"
+ ' 33[0m'
%timeit list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.001, steps = 80000)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' +
"ΠΡΠ΅ΠΌΡ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΡΠΎΡ
Π°ΡΡΠΈΡΠ΅ΡΠΊΠΎΠ³ΠΎ Π³ΡΠ°Π΄ΠΈΠ΅Π½ΡΠ½ΠΎΠ³ΠΎ ΡΠΏΡΡΠΊΠ° Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy:"
+ ' 33[0m'
%timeit list_parametres_stoch_gradient_descence = stoch_grad_descent_numpy(x_np, y_np, l=0.001, steps = 80000)
Semakin jauh ke dalam hutan, semakin gelap awan: sekali lagi, formula "tulisan sendiri" menunjukkan hasil terbaik. Semua ini menunjukkan bahawa mesti ada cara yang lebih halus untuk menggunakan perpustakaan numpy, yang benar-benar mempercepatkan operasi pengiraan. Dalam artikel ini kita tidak akan belajar tentang mereka. Akan ada sesuatu untuk difikirkan pada masa lapang anda :)
Meringkaskan
Sebelum meringkaskan, saya ingin menjawab soalan yang kemungkinan besar timbul daripada pembaca yang dikasihi. Mengapa, sebenarnya, "penyiksaan" seperti itu dengan keturunan, mengapa kita perlu berjalan naik dan turun gunung (kebanyakannya turun) untuk mencari tanah pamah yang berharga, jika kita ada di tangan kita alat yang kuat dan mudah, di bentuk penyelesaian analitikal, yang membawa kita serta-merta ke tempat Betul?
Jawapan kepada soalan ini terletak di permukaan. Sekarang kita telah melihat contoh yang sangat mudah, di mana jawapan yang benar adalah bergantung pada satu tanda . Anda tidak sering melihat ini dalam hidup, jadi mari bayangkan bahawa kita mempunyai 2, 30, 50 atau lebih tanda. Mari tambahkan pada ini beribu-ribu, malah berpuluh-puluh ribu nilai untuk setiap atribut. Dalam kes ini, penyelesaian analitik mungkin tidak dapat menahan ujian dan gagal. Sebaliknya, keturunan kecerunan dan variasinya akan secara perlahan tetapi pasti membawa kita lebih dekat kepada matlamat - fungsi minimum. Dan jangan risau tentang kelajuan - kami mungkin akan melihat cara yang membolehkan kami menetapkan dan mengawal panjang langkah (iaitu kelajuan).
Dan sekarang ringkasan ringkas sebenar.
Pertama, saya berharap bahan yang dibentangkan dalam artikel itu akan membantu memulakan "saintis data" dalam memahami cara menyelesaikan persamaan regresi linear yang mudah (dan bukan sahaja).
Kedua, kami melihat beberapa cara untuk menyelesaikan persamaan. Sekarang, bergantung kepada keadaan, kita boleh memilih yang paling sesuai untuk menyelesaikan masalah.
Ketiga, kami melihat kuasa tetapan tambahan, iaitu panjang langkah penurunan kecerunan. Parameter ini tidak boleh diabaikan. Seperti yang dinyatakan di atas, untuk mengurangkan kos pengiraan, panjang langkah perlu diubah semasa penurunan.
Keempat, dalam kes kami, fungsi "tulisan rumah" menunjukkan hasil masa terbaik untuk pengiraan. Ini mungkin disebabkan oleh penggunaan keupayaan perpustakaan yang paling profesional numpy. Tetapi walau bagaimanapun, kesimpulan berikut menunjukkan dirinya sendiri. Di satu pihak, kadangkala patut mempersoalkan pendapat yang telah ditetapkan, dan sebaliknya, ia tidak selalu bernilai merumitkan segala-galanya - sebaliknya, kadang-kadang cara yang lebih mudah untuk menyelesaikan masalah adalah lebih berkesan. Dan kerana matlamat kami adalah untuk menganalisis tiga pendekatan untuk menyelesaikan persamaan regresi linear yang mudah, penggunaan fungsi "tulisan sendiri" adalah cukup untuk kami.
Sastera (atau sesuatu seperti itu)
1. Regresi linear
2. Kaedah kuasa dua terkecil
3. Terbitan
4. Kecerunan
5. Keturunan kecerunan
6. Perpustakaan NumPy