கட்டுரை ஒரு எளிய (ஜோடி) பின்னடைவு வரியின் கணித சமன்பாட்டை தீர்மானிக்க பல வழிகளைப் பற்றி விவாதிக்கிறது.
இங்கே விவாதிக்கப்பட்ட சமன்பாட்டைத் தீர்ப்பதற்கான அனைத்து முறைகளும் குறைந்த சதுர முறையின் அடிப்படையில் அமைந்தவை. வழிமுறைகளை பின்வருமாறு குறிப்போம்:
- பகுப்பாய்வு தீர்வு
- சாய்வு வம்சாவளி
- சீரான சாய்வு வம்சாவளி
ஒரு நேர் கோட்டின் சமன்பாட்டைத் தீர்க்கும் ஒவ்வொரு முறைக்கும், கட்டுரை பல்வேறு செயல்பாடுகளை வழங்குகிறது, அவை முக்கியமாக நூலகத்தைப் பயன்படுத்தாமல் எழுதப்பட்டவைகளாக பிரிக்கப்படுகின்றன. நம்பி மற்றும் கணக்கீடுகளுக்குப் பயன்படுத்துபவர்கள் நம்பி. திறமையான பயன்பாடு என்று நம்பப்படுகிறது நம்பி கணினி செலவுகளை குறைக்கும்.
கட்டுரையில் கொடுக்கப்பட்டுள்ள அனைத்து குறியீடுகளும் மொழியில் எழுதப்பட்டுள்ளன பைதான் 2.7 உடன் ஜூபிட்டர் நோட்புக். மாதிரித் தரவுகளுடன் மூலக் குறியீடு மற்றும் கோப்பு இடுகையிடப்பட்டுள்ளது
கட்டுரை ஆரம்பநிலை மற்றும் ஏற்கனவே படிப்படியாக செயற்கை நுண்ணறிவு - இயந்திர கற்றல் மிகவும் பரந்த பிரிவின் படிப்பில் தேர்ச்சி பெறத் தொடங்கியவர்களை இலக்காகக் கொண்டது.
பொருளை விளக்குவதற்கு, நாங்கள் மிகவும் எளிமையான உதாரணத்தைப் பயன்படுத்துகிறோம்.
எடுத்துக்காட்டு நிபந்தனைகள்
சார்புநிலையைக் குறிக்கும் ஐந்து மதிப்புகள் எங்களிடம் உள்ளன Y இருந்து X (அட்டவணை எண். 1):
அட்டவணை எண். 1 "உதாரணம் நிபந்தனைகள்"
மதிப்புகள் என்று வைத்துக்கொள்வோம் ஆண்டின் மாதம், மற்றும் - இந்த மாதம் வருவாய். வேறு வார்த்தைகளில் கூறுவதானால், வருவாய் ஆண்டின் மாதத்தைப் பொறுத்தது, மற்றும் - வருவாய் சார்ந்துள்ள ஒரே அடையாளம்.
உதாரணம் அப்படித்தான், ஆண்டின் மாதத்தில் வருவாயின் நிபந்தனை சார்பு மற்றும் மதிப்புகளின் எண்ணிக்கையின் பார்வையில் - அவற்றில் மிகக் குறைவு. இருப்பினும், அத்தகைய எளிமைப்படுத்தல், அவர்கள் சொல்வது போல், ஆரம்பநிலையாளர்களால் பெறப்பட்ட பொருளை எப்போதும் எளிதாக விளக்க முடியாது. எண்களின் எளிமை குறிப்பிடத்தக்க உழைப்பு செலவுகள் இல்லாமல் காகிதத்தில் உதாரணத்தைத் தீர்க்க விரும்புவோரை அனுமதிக்கும்.
படிவத்தின் எளிய (ஜோடி) பின்னடைவுக் கோட்டின் கணிதச் சமன்பாட்டின் மூலம் எடுத்துக்காட்டில் கொடுக்கப்பட்ட சார்பு நன்றாக தோராயமாக மதிப்பிடப்படலாம் என்று வைத்துக்கொள்வோம்:
எங்கே வருமானம் கிடைத்த மாதம் - மாதத்துடன் தொடர்புடைய வருவாய், и மதிப்பிடப்பட்ட வரியின் பின்னடைவு குணகங்களாகும்.
குணகம் என்பதை நினைவில் கொள்க பெரும்பாலும் மதிப்பிடப்பட்ட கோட்டின் சாய்வு அல்லது சாய்வு என்று அழைக்கப்படுகிறது; எந்த அளவைக் குறிக்கிறது அது மாறும்போது .
வெளிப்படையாக, எடுத்துக்காட்டில் எங்கள் பணி சமன்பாட்டில் அத்தகைய குணகங்களைத் தேர்ந்தெடுப்பதாகும் и , உண்மையான பதில்களிலிருந்து மாதந்தோறும் கணக்கிடப்பட்ட வருவாய் மதிப்புகளின் விலகல்கள், அதாவது. மாதிரியில் வழங்கப்பட்ட மதிப்புகள் குறைவாக இருக்கும்.
குறைந்த சதுர முறை
குறைந்த சதுரங்கள் முறையின்படி, விலகலை சதுரப்படுத்தி கணக்கிட வேண்டும். இந்த நுட்பம் அவர்கள் எதிர் அறிகுறிகள் இருந்தால் விலகல்கள் பரஸ்பர ரத்து தவிர்க்க அனுமதிக்கிறது. உதாரணமாக, ஒரு வழக்கில் இருந்தால், விலகல் ஆகும் +5 (பிளஸ் ஐந்து), மற்றொன்றில் -5 (கழித்தல் ஐந்து), பின்னர் விலகல்களின் கூட்டுத்தொகை ஒன்றையொன்று ரத்து செய்து 0 (பூஜ்ஜியம்) ஆக இருக்கும். நீங்கள் விலகலை சதுரப்படுத்த வேண்டியதில்லை, ஆனால் மாடுலஸ் சொத்தை பயன்படுத்தவும், பின்னர் அனைத்து விலகல்களும் நேர்மறையாக இருக்கும் மற்றும் குவிந்துவிடும். இந்த புள்ளியில் நாங்கள் விரிவாக வாழ மாட்டோம், ஆனால் கணக்கீடுகளின் வசதிக்காக, விலகலை சதுரப்படுத்துவது வழக்கமாக உள்ளது என்பதைக் குறிப்பிடுகிறோம்.
இந்த சூத்திரம் எப்படி இருக்கிறது, இதன் மூலம் நாம் ஸ்கொயர் விலகல்களின் (பிழைகள்) குறைந்தபட்ச தொகையை நிர்ணயிப்போம்:
எங்கே உண்மையான பதில்களின் தோராயமான செயல்பாடு (அதாவது, நாங்கள் கணக்கிட்ட வருவாய்),
உண்மையான பதில்கள் (மாதிரியில் வழங்கப்பட்ட வருவாய்),
மாதிரி குறியீடு (விலகல் தீர்மானிக்கப்படும் மாதத்தின் எண்ணிக்கை)
செயல்பாட்டை வேறுபடுத்துவோம், பகுதி வேறுபாடு சமன்பாடுகளை வரையறுப்போம், பகுப்பாய்வு தீர்வுக்கு செல்ல தயாராக இருக்க வேண்டும். ஆனால் முதலில், வேறுபாடு என்றால் என்ன என்பதைப் பற்றி ஒரு குறுகிய பயணத்தை மேற்கொள்வோம் மற்றும் வழித்தோன்றலின் வடிவியல் அர்த்தத்தை நினைவில் கொள்வோம்.
வேறுபாடு
வேறுபாடு என்பது ஒரு செயல்பாட்டின் வழித்தோன்றலைக் கண்டறியும் செயல்பாடாகும்.
வழித்தோன்றல் எதற்காகப் பயன்படுத்தப்படுகிறது? ஒரு செயல்பாட்டின் வழித்தோன்றல் செயல்பாட்டின் மாற்ற விகிதத்தை வகைப்படுத்துகிறது மற்றும் அதன் திசையை நமக்கு சொல்கிறது. கொடுக்கப்பட்ட புள்ளியில் உள்ள வழித்தோன்றல் நேர்மறையாக இருந்தால், செயல்பாடு அதிகரிக்கிறது; இல்லையெனில், செயல்பாடு குறைகிறது. மேலும் முழுமையான வழித்தோன்றலின் மதிப்பு அதிகமாக இருந்தால், செயல்பாட்டின் மதிப்புகளின் மாற்ற விகிதம் அதிகமாகும், அதே போல் சார்பு வரைபடத்தின் சாய்வும் அதிகமாக இருக்கும்.
எடுத்துக்காட்டாக, கார்ட்டீசியன் ஒருங்கிணைப்பு அமைப்பின் நிபந்தனைகளின் கீழ், M(0,0) புள்ளியில் உள்ள வழித்தோன்றலின் மதிப்பு சமமாக இருக்கும் + 25 கொடுக்கப்பட்ட புள்ளியில், மதிப்பு மாற்றப்படும் போது ஒரு வழக்கமான அலகு மூலம் வலதுபுறம், மதிப்பு 25 வழக்கமான அலகுகள் அதிகரிக்கிறது. வரைபடத்தில் அது மதிப்புகளில் மிகவும் செங்குத்தான உயர்வு போல் தெரிகிறது கொடுக்கப்பட்ட புள்ளியில் இருந்து.
மற்றொரு உதாரணம். வழித்தோன்றல் மதிப்பு சமம் -0,1 இடம்பெயர்ந்த போது என்று பொருள் ஒரு வழக்கமான அலகுக்கு, மதிப்பு 0,1 வழக்கமான அலகு மட்டுமே குறைகிறது. அதே நேரத்தில், செயல்பாட்டின் வரைபடத்தில், நாம் கவனிக்கத்தக்க கீழ்நோக்கிய சாய்வைக் காணலாம். ஒரு மலையுடன் ஒப்புமையை வரைந்தால், முந்தைய உதாரணத்தைப் போலல்லாமல், நாம் மிகவும் செங்குத்தான சிகரங்களில் ஏற வேண்டியிருந்தது, ஒரு மலையிலிருந்து ஒரு மென்மையான சாய்வில் நாம் மிக மெதுவாக இறங்குவது போலாகும் :)
இவ்வாறு, செயல்பாட்டை வேறுபடுத்திய பிறகு முரண்பாடுகள் மூலம் и , நாங்கள் 1 வது வரிசை பகுதி வேறுபாடு சமன்பாடுகளை வரையறுக்கிறோம். சமன்பாடுகளைத் தீர்மானித்த பிறகு, இரண்டு சமன்பாடுகளின் அமைப்பைப் பெறுவோம், அதைத் தீர்ப்பதன் மூலம் குணகங்களின் அத்தகைய மதிப்புகளைத் தேர்ந்தெடுக்க முடியும். и , கொடுக்கப்பட்ட புள்ளிகளில் தொடர்புடைய வழித்தோன்றல்களின் மதிப்புகள் மிக மிக சிறிய அளவில் மாறுகின்றன, மேலும் பகுப்பாய்வு தீர்வின் விஷயத்தில் மாறாது. வேறு வார்த்தைகளில் கூறுவதானால், கண்டுபிடிக்கப்பட்ட குணகங்களின் பிழை செயல்பாடு குறைந்தபட்சத்தை எட்டும், ஏனெனில் இந்த புள்ளிகளில் உள்ள பகுதி வழித்தோன்றல்களின் மதிப்புகள் பூஜ்ஜியத்திற்கு சமமாக இருக்கும்.
எனவே, வேறுபாட்டின் விதிகளின்படி, குணகத்தைப் பொறுத்து 1 வது வரிசையின் பகுதி வழித்தோன்றல் சமன்பாடு படிவத்தை எடுக்கும்:
1வது வரிசை பகுதி வழித்தோன்றல் சமன்பாடு தொடர்பானது படிவத்தை எடுக்கும்:
இதன் விளைவாக, நாங்கள் மிகவும் எளிமையான பகுப்பாய்வு தீர்வைக் கொண்ட சமன்பாடுகளின் அமைப்பைப் பெற்றோம்:
தொடங்கு{சமன்பாடு*}
தொடங்க{வழக்குகள்}
na + bsumlimits_{i=1}^nx_i — sumlimits_{i=1}^ny_i = 0
sumlimits_{i=1}^nx_i(a +bsumlimits_{i=1}^nx_i — sumlimits_{i=1}^ny_i) = 0
முடிவு{வழக்குகள்}
முடிவு{சமன்பாடு*}
சமன்பாட்டைத் தீர்ப்பதற்கு முன், முன்கூட்டியே ஏற்றவும், ஏற்றுதல் சரியாக உள்ளதா எனச் சரிபார்த்து, தரவை வடிவமைக்கவும்.
தரவை ஏற்றுதல் மற்றும் வடிவமைத்தல்
பகுப்பாய்வு தீர்வுக்காகவும், பின்னர் சாய்வு மற்றும் சீரான சாய்வு வம்சாவளிக்காகவும், குறியீட்டை இரண்டு மாறுபாடுகளில் பயன்படுத்துவோம்: நூலகத்தைப் பயன்படுத்துதல் நம்பி மற்றும் அதைப் பயன்படுத்தாமல், எங்களுக்கு பொருத்தமான தரவு வடிவமைப்பு தேவைப்படும் (குறியீட்டைப் பார்க்கவும்).
தரவு ஏற்றுதல் மற்றும் செயலாக்க குறியீடு
# импортируем все нужные нам библиотеки
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import math
import pylab as pl
import random
# графики отобразим в Jupyter
%matplotlib inline
# укажем размер графиков
from pylab import rcParams
rcParams['figure.figsize'] = 12, 6
# отключим предупреждения Anaconda
import warnings
warnings.simplefilter('ignore')
# загрузим значения
table_zero = pd.read_csv('data_example.txt', header=0, sep='t')
# посмотрим информацию о таблице и на саму таблицу
print table_zero.info()
print '********************************************'
print table_zero
print '********************************************'
# подготовим данные без использования NumPy
x_us = []
[x_us.append(float(i)) for i in table_zero['x']]
print x_us
print type(x_us)
print '********************************************'
y_us = []
[y_us.append(float(i)) for i in table_zero['y']]
print y_us
print type(y_us)
print '********************************************'
# подготовим данные с использованием NumPy
x_np = table_zero[['x']].values
print x_np
print type(x_np)
print x_np.shape
print '********************************************'
y_np = table_zero[['y']].values
print y_np
print type(y_np)
print y_np.shape
print '********************************************'
காட்சிப்படுத்தல்
இப்போது, முதலில், தரவை ஏற்றிய பிறகு, இரண்டாவதாக, ஏற்றுதலின் சரியான தன்மையை சரிபார்த்து, இறுதியாக தரவை வடிவமைத்த பிறகு, முதல் காட்சிப்படுத்தலை மேற்கொள்வோம். இதற்கு பெரும்பாலும் பயன்படுத்தப்படும் முறை ஜோடி சதி நூலகம் கடற்படை. எங்கள் எடுத்துக்காட்டில், வரையறுக்கப்பட்ட எண்கள் காரணமாக, நூலகத்தைப் பயன்படுத்துவதில் எந்த அர்த்தமும் இல்லை கடற்படை. வழக்கமான நூலகத்தைப் பயன்படுத்துவோம் மேட்ப்ளோட்லிப் மற்றும் சிதறல்களை மட்டும் பாருங்கள்.
சிதறல் குறியீடு
print 'График №1 "Зависимость выручки от месяца года"'
plt.plot(x_us,y_us,'o',color='green',markersize=16)
plt.xlabel('$Months$', size=16)
plt.ylabel('$Sales$', size=16)
plt.show()
விளக்கப்படம் எண். 1 "ஆண்டின் மாத வருவாய் சார்ந்து"
பகுப்பாய்வு தீர்வு
மிகவும் பொதுவான கருவிகளைப் பயன்படுத்துவோம் மலைப்பாம்பு மற்றும் சமன்பாடுகளின் அமைப்பைத் தீர்க்கவும்:
தொடங்கு{சமன்பாடு*}
தொடங்க{வழக்குகள்}
na + bsumlimits_{i=1}^nx_i — sumlimits_{i=1}^ny_i = 0
sumlimits_{i=1}^nx_i(a +bsumlimits_{i=1}^nx_i — sumlimits_{i=1}^ny_i) = 0
முடிவு{வழக்குகள்}
முடிவு{சமன்பாடு*}
கிராமரின் விதியின் படி நாம் பொதுவான தீர்மானிப்பான் மற்றும் தீர்மானிப்பதன் மூலம் கண்டுபிடிப்போம் மற்றும் மூலம் , அதன் பிறகு, தீர்மானிப்பவரை வகுத்தல் பொது தீர்மானிக்கு - குணகத்தைக் கண்டறியவும் , இதேபோல் நாம் குணகத்தைக் காண்கிறோம் .
பகுப்பாய்வு தீர்வு குறியீடு
# определим функцию для расчета коэффициентов a и b по правилу Крамера
def Kramer_method (x,y):
# сумма значений (все месяца)
sx = sum(x)
# сумма истинных ответов (выручка за весь период)
sy = sum(y)
# сумма произведения значений на истинные ответы
list_xy = []
[list_xy.append(x[i]*y[i]) for i in range(len(x))]
sxy = sum(list_xy)
# сумма квадратов значений
list_x_sq = []
[list_x_sq.append(x[i]**2) for i in range(len(x))]
sx_sq = sum(list_x_sq)
# количество значений
n = len(x)
# общий определитель
det = sx_sq*n - sx*sx
# определитель по a
det_a = sx_sq*sy - sx*sxy
# искомый параметр a
a = (det_a / det)
# определитель по b
det_b = sxy*n - sy*sx
# искомый параметр b
b = (det_b / det)
# контрольные значения (прооверка)
check1 = (n*b + a*sx - sy)
check2 = (b*sx + a*sx_sq - sxy)
return [round(a,4), round(b,4)]
# запустим функцию и запишем правильные ответы
ab_us = Kramer_method(x_us,y_us)
a_us = ab_us[0]
b_us = ab_us[1]
print ' 33[1m' + ' 33[4m' + "Оптимальные значения коэффициентов a и b:" + ' 33[0m'
print 'a =', a_us
print 'b =', b_us
print
# определим функцию для подсчета суммы квадратов ошибок
def errors_sq_Kramer_method(answers,x,y):
list_errors_sq = []
for i in range(len(x)):
err = (answers[0] + answers[1]*x[i] - y[i])**2
list_errors_sq.append(err)
return sum(list_errors_sq)
# запустим функцию и запишем значение ошибки
error_sq = errors_sq_Kramer_method(ab_us,x_us,y_us)
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений" + ' 33[0m'
print error_sq
print
# замерим время расчета
# print ' 33[1m' + ' 33[4m' + "Время выполнения расчета суммы квадратов отклонений:" + ' 33[0m'
# % timeit error_sq = errors_sq_Kramer_method(ab,x_us,y_us)
எங்களுக்கு கிடைத்தது இங்கே:
எனவே, குணகங்களின் மதிப்புகள் கண்டறியப்பட்டுள்ளன, சதுர விலகல்களின் கூட்டுத்தொகை நிறுவப்பட்டது. கண்டுபிடிக்கப்பட்ட குணகங்களுக்கு ஏற்ப சிதறல் ஹிஸ்டோகிராமில் ஒரு நேர் கோட்டை வரைவோம்.
பின்னடைவு வரி குறியீடு
# определим функцию для формирования массива рассчетных значений выручки
def sales_count(ab,x,y):
line_answers = []
[line_answers.append(ab[0]+ab[1]*x[i]) for i in range(len(x))]
return line_answers
# построим графики
print 'Грфик№2 "Правильные и расчетные ответы"'
plt.plot(x_us,y_us,'o',color='green',markersize=16, label = '$True$ $answers$')
plt.plot(x_us, sales_count(ab_us,x_us,y_us), color='red',lw=4,
label='$Function: a + bx,$ $where$ $a='+str(round(ab_us[0],2))+',$ $b='+str(round(ab_us[1],2))+'$')
plt.xlabel('$Months$', size=16)
plt.ylabel('$Sales$', size=16)
plt.legend(loc=1, prop={'size': 16})
plt.show()
விளக்கப்படம் எண். 2 "சரியான மற்றும் கணக்கிடப்பட்ட பதில்கள்"
ஒவ்வொரு மாதத்திற்கான விலகல் வரைபடத்தைப் பார்க்கலாம். எங்கள் விஷயத்தில், அதிலிருந்து எந்தவொரு குறிப்பிடத்தக்க நடைமுறை மதிப்பையும் நாங்கள் பெற மாட்டோம், ஆனால் எளிமையான நேரியல் பின்னடைவு சமன்பாடு ஆண்டின் மாதத்தில் வருவாயின் சார்புநிலையை எவ்வளவு சிறப்பாக வகைப்படுத்துகிறது என்பதைப் பற்றிய எங்கள் ஆர்வத்தை நாங்கள் திருப்தி செய்வோம்.
விலகல் விளக்கப்படக் குறியீடு
# определим функцию для формирования массива отклонений в процентах
def error_per_month(ab,x,y):
sales_c = sales_count(ab,x,y)
errors_percent = []
for i in range(len(x)):
errors_percent.append(100*(sales_c[i]-y[i])/y[i])
return errors_percent
# построим график
print 'График№3 "Отклонения по-месячно, %"'
plt.gca().bar(x_us, error_per_month(ab_us,x_us,y_us), color='brown')
plt.xlabel('Months', size=16)
plt.ylabel('Calculation error, %', size=16)
plt.show()
விளக்கப்படம் எண். 3 “விலகல்கள், %”
சரியாக இல்லை, ஆனால் நாங்கள் எங்கள் பணியை முடித்தோம்.
குணகங்களைத் தீர்மானிக்க, ஒரு செயல்பாட்டை எழுதுவோம் и நூலகத்தைப் பயன்படுத்துகிறது நம்பி, இன்னும் துல்லியமாக, நாம் இரண்டு செயல்பாடுகளை எழுதுவோம்: ஒன்று சூடோஇன்வர்ஸ் மேட்ரிக்ஸைப் பயன்படுத்துகிறது (நடைமுறையில் பரிந்துரைக்கப்படவில்லை, செயல்முறை கணக்கீட்டு ரீதியாக சிக்கலானது மற்றும் நிலையற்றது என்பதால்), மற்றொன்று மேட்ரிக்ஸ் சமன்பாட்டைப் பயன்படுத்துகிறது.
பகுப்பாய்வு தீர்வு குறியீடு (NumPy)
# для начала добавим столбец с не изменяющимся значением в 1.
# Данный столбец нужен для того, чтобы не обрабатывать отдельно коэффицент a
vector_1 = np.ones((x_np.shape[0],1))
x_np = table_zero[['x']].values # на всякий случай приведем в первичный формат вектор x_np
x_np = np.hstack((vector_1,x_np))
# проверим то, что все сделали правильно
print vector_1[0:3]
print x_np[0:3]
print '***************************************'
print
# напишем функцию, которая определяет значения коэффициентов a и b с использованием псевдообратной матрицы
def pseudoinverse_matrix(X, y):
# задаем явный формат матрицы признаков
X = np.matrix(X)
# определяем транспонированную матрицу
XT = X.T
# определяем квадратную матрицу
XTX = XT*X
# определяем псевдообратную матрицу
inv = np.linalg.pinv(XTX)
# задаем явный формат матрицы ответов
y = np.matrix(y)
# находим вектор весов
return (inv*XT)*y
# запустим функцию
ab_np = pseudoinverse_matrix(x_np, y_np)
print ab_np
print '***************************************'
print
# напишем функцию, которая использует для решения матричное уравнение
def matrix_equation(X,y):
a = np.dot(X.T, X)
b = np.dot(X.T, y)
return np.linalg.solve(a, b)
# запустим функцию
ab_np = matrix_equation(x_np,y_np)
print ab_np
குணகங்களை நிர்ணயிப்பதில் செலவழித்த நேரத்தை ஒப்பிடுவோம் и , வழங்கப்பட்ட 3 முறைகளுக்கு இணங்க.
கணக்கீட்டு நேரத்தை கணக்கிடுவதற்கான குறியீடு
print ' 33[1m' + ' 33[4m' + "Время выполнения расчета коэффициентов без использования библиотеки NumPy:" + ' 33[0m'
% timeit ab_us = Kramer_method(x_us,y_us)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "Время выполнения расчета коэффициентов с использованием псевдообратной матрицы:" + ' 33[0m'
%timeit ab_np = pseudoinverse_matrix(x_np, y_np)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "Время выполнения расчета коэффициентов с использованием матричного уравнения:" + ' 33[0m'
%timeit ab_np = matrix_equation(x_np, y_np)
சிறிய அளவிலான தரவுகளுடன், ஒரு "சுய-எழுதப்பட்ட" செயல்பாடு முன்னால் வருகிறது, இது க்ரேமர் முறையைப் பயன்படுத்தி குணகங்களைக் கண்டறியும்.
இப்போது நீங்கள் குணகங்களைக் கண்டறிய வேறு வழிகளுக்குச் செல்லலாம் и .
சாய்வு வம்சாவளி
முதலில், சாய்வு என்றால் என்ன என்பதை வரையறுப்போம். எளிமையாகச் சொன்னால், சாய்வு என்பது ஒரு செயல்பாட்டின் அதிகபட்ச வளர்ச்சியின் திசையைக் குறிக்கும் ஒரு பிரிவாகும். மலையின் உச்சிக்கு செங்குத்தான ஏற்றம் இருக்கும் இடத்தின் சாய்வு முகங்கள் மலை ஏறுவதைப் போன்றது. மலையுடன் ஒரு உதாரணத்தை வளர்த்துக் கொள்ளும்போது, உண்மையில் தாழ்நிலத்தை விரைவில் அடைய, அதாவது குறைந்தபட்சம் - செயல்பாடு அதிகரிக்கவோ அல்லது குறைக்கவோ இல்லாத இடம் செங்குத்தான வம்சாவளியை நமக்குத் தேவை என்பதை நினைவில் கொள்கிறோம். இந்த கட்டத்தில் வழித்தோன்றல் பூஜ்ஜியத்திற்கு சமமாக இருக்கும். எனவே, நமக்கு ஒரு சாய்வு தேவையில்லை, மாறாக ஒரு எதிர்-கிரேடியன்ட். ஆண்டிகிரேடியனைக் கண்டுபிடிக்க, நீங்கள் சாய்வை பெருக்க வேண்டும் -1 (கழித்தல் ஒன்று).
ஒரு செயல்பாடு பல மினிமாக்களைக் கொண்டிருக்கக்கூடும் என்பதில் கவனம் செலுத்துவோம், மேலும் கீழே முன்மொழியப்பட்ட வழிமுறையைப் பயன்படுத்தி அவற்றில் ஒன்றில் இறங்கினால், மற்றொரு குறைந்தபட்சத்தை நாம் கண்டுபிடிக்க முடியாது, இது கண்டுபிடிக்கப்பட்டதை விட குறைவாக இருக்கலாம். ஓய்வெடுப்போம், இது நமக்கு அச்சுறுத்தல் அல்ல! எங்கள் விஷயத்தில், எங்கள் செயல்பாட்டிலிருந்து குறைந்தபட்சம் நாங்கள் கையாளுகிறோம் வரைபடத்தில் ஒரு வழக்கமான பரவளையம் உள்ளது. நமது பள்ளிக் கணிதப் பாடத்திலிருந்து நாம் அனைவரும் நன்றாகத் தெரிந்து கொள்ள வேண்டியது போல, ஒரு பரவளையத்தில் குறைந்தபட்சம் ஒரே ஒரு விஷயம் மட்டுமே உள்ளது.
நமக்கு ஏன் ஒரு சாய்வு தேவை என்பதையும், சாய்வு என்பது ஒரு பிரிவு என்பதையும், அதாவது, கொடுக்கப்பட்ட ஆயங்களைக் கொண்ட ஒரு திசையன் என்பதையும் கண்டறிந்த பிறகு, அவை துல்லியமாக அதே குணகங்களாகும். и நாம் சாய்வு வம்சாவளியை செயல்படுத்த முடியும்.
தொடங்குவதற்கு முன், வம்சாவளி அல்காரிதம் பற்றிய சில வாக்கியங்களைப் படிக்க பரிந்துரைக்கிறேன்:
- குணகங்களின் ஆயங்களை ஒரு போலி-சீரற்ற முறையில் தீர்மானிக்கிறோம் и . எங்கள் எடுத்துக்காட்டில், பூஜ்ஜியத்திற்கு அருகிலுள்ள குணகங்களை நாங்கள் தீர்மானிப்போம். இது ஒரு பொதுவான நடைமுறை, ஆனால் ஒவ்வொரு வழக்குக்கும் அதன் சொந்த நடைமுறை இருக்கலாம்.
- ஒருங்கிணைப்பிலிருந்து புள்ளியில் 1வது வரிசை பகுதி வழித்தோன்றலின் மதிப்பைக் கழிக்கவும் . எனவே, வழித்தோன்றல் நேர்மறையாக இருந்தால், செயல்பாடு அதிகரிக்கிறது. எனவே, வழித்தோன்றலின் மதிப்பைக் கழிப்பதன் மூலம், நாம் வளர்ச்சியின் எதிர் திசையில், அதாவது, வம்சாவளியின் திசையில் நகர்வோம். வழித்தோன்றல் எதிர்மறையாக இருந்தால், இந்த கட்டத்தில் செயல்பாடு குறைகிறது மற்றும் வழித்தோன்றலின் மதிப்பைக் கழிப்பதன் மூலம் நாம் வம்சாவளியின் திசையில் நகர்கிறோம்.
- ஒருங்கிணைப்புடன் இதேபோன்ற செயல்பாட்டை நாங்கள் மேற்கொள்கிறோம் : புள்ளியில் உள்ள பகுதி வழித்தோன்றலின் மதிப்பைக் கழிக்கவும் .
- குறைந்தபட்சம் குதித்து ஆழமான இடத்திற்கு பறக்காமல் இருக்க, வம்சாவளியின் திசையில் படி அளவை அமைக்க வேண்டியது அவசியம். பொதுவாக, கணக்கீட்டுச் செலவுகளைக் குறைப்பதற்காக, படியை எவ்வாறு சரியாக அமைப்பது மற்றும் இறங்கும் செயல்முறையின் போது அதை எவ்வாறு மாற்றுவது என்பது பற்றிய முழு கட்டுரையையும் நீங்கள் எழுதலாம். ஆனால் இப்போது எங்களுக்கு முன்னால் சற்று வித்தியாசமான பணி உள்ளது, மேலும் "குத்து" என்ற விஞ்ஞான முறையைப் பயன்படுத்தி படி அளவை நிறுவுவோம் அல்லது அவர்கள் சொல்வது போல், அனுபவபூர்வமாக.
- கொடுக்கப்பட்ட ஆயத்தொலைவுகளிலிருந்து நாம் ஒருமுறை и வழித்தோன்றல்களின் மதிப்புகளைக் கழித்தால், புதிய ஆயங்களைப் பெறுகிறோம் и . ஏற்கனவே கணக்கிடப்பட்ட ஆயங்களில் இருந்து அடுத்த படி (கழித்தல்) எடுக்கிறோம். எனவே தேவையான ஒருங்கிணைப்பு அடையும் வரை சுழற்சி மீண்டும் மீண்டும் தொடங்குகிறது.
அனைத்து! இப்போது மரியானா அகழியின் ஆழமான பள்ளத்தாக்கைத் தேடிச் செல்ல நாங்கள் தயாராக இருக்கிறோம். ஆரம்பிக்கலாம்.
சாய்வு வம்சாவளிக்கான குறியீடு
# напишем функцию градиентного спуска без использования библиотеки NumPy.
# Функция на вход принимает диапазоны значений x,y, длину шага (по умолчанию=0,1), допустимую погрешность(tolerance)
def gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001):
# сумма значений (все месяца)
sx = sum(x_us)
# сумма истинных ответов (выручка за весь период)
sy = sum(y_us)
# сумма произведения значений на истинные ответы
list_xy = []
[list_xy.append(x_us[i]*y_us[i]) for i in range(len(x_us))]
sxy = sum(list_xy)
# сумма квадратов значений
list_x_sq = []
[list_x_sq.append(x_us[i]**2) for i in range(len(x_us))]
sx_sq = sum(list_x_sq)
# количество значений
num = len(x_us)
# начальные значения коэффициентов, определенные псевдослучайным образом
a = float(random.uniform(-0.5, 0.5))
b = float(random.uniform(-0.5, 0.5))
# создаем массив с ошибками, для старта используем значения 1 и 0
# после завершения спуска стартовые значения удалим
errors = [1,0]
# запускаем цикл спуска
# цикл работает до тех пор, пока отклонение последней ошибки суммы квадратов от предыдущей, не будет меньше tolerance
while abs(errors[-1]-errors[-2]) > tolerance:
a_step = a - l*(num*a + b*sx - sy)/num
b_step = b - l*(a*sx + b*sx_sq - sxy)/num
a = a_step
b = b_step
ab = [a,b]
errors.append(errors_sq_Kramer_method(ab,x_us,y_us))
return (ab),(errors[2:])
# запишем массив значений
list_parametres_gradient_descence = gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001)
print ' 33[1m' + ' 33[4m' + "Значения коэффициентов a и b:" + ' 33[0m'
print 'a =', round(list_parametres_gradient_descence[0][0],3)
print 'b =', round(list_parametres_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений:" + ' 33[0m'
print round(list_parametres_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "Количество итераций в градиентном спуске:" + ' 33[0m'
print len(list_parametres_gradient_descence[1])
print
நாங்கள் மரியானா அகழியின் அடிப்பகுதிக்கு டைவ் செய்தோம், அங்கு ஒரே மாதிரியான குணக மதிப்புகளைக் கண்டோம் и , இது சரியாக எதிர்பார்க்கப்பட்டது.
இன்னொரு டைவ் செய்வோம், இந்த நேரத்தில் மட்டுமே, எங்கள் ஆழ்கடல் வாகனம் மற்ற தொழில்நுட்பங்களால் நிரப்பப்படும், அதாவது நூலகம் நம்பி.
சாய்வு வம்சாவளிக்கான குறியீடு (NumPy)
# перед тем определить функцию для градиентного спуска с использованием библиотеки NumPy,
# напишем функцию определения суммы квадратов отклонений также с использованием NumPy
def error_square_numpy(ab,x_np,y_np):
y_pred = np.dot(x_np,ab)
error = y_pred - y_np
return sum((error)**2)
# напишем функцию градиентного спуска с использованием библиотеки NumPy.
# Функция на вход принимает диапазоны значений x,y, длину шага (по умолчанию=0,1), допустимую погрешность(tolerance)
def gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001):
# сумма значений (все месяца)
sx = float(sum(x_np[:,1]))
# сумма истинных ответов (выручка за весь период)
sy = float(sum(y_np))
# сумма произведения значений на истинные ответы
sxy = x_np*y_np
sxy = float(sum(sxy[:,1]))
# сумма квадратов значений
sx_sq = float(sum(x_np[:,1]**2))
# количество значений
num = float(x_np.shape[0])
# начальные значения коэффициентов, определенные псевдослучайным образом
a = float(random.uniform(-0.5, 0.5))
b = float(random.uniform(-0.5, 0.5))
# создаем массив с ошибками, для старта используем значения 1 и 0
# после завершения спуска стартовые значения удалим
errors = [1,0]
# запускаем цикл спуска
# цикл работает до тех пор, пока отклонение последней ошибки суммы квадратов от предыдущей, не будет меньше tolerance
while abs(errors[-1]-errors[-2]) > tolerance:
a_step = a - l*(num*a + b*sx - sy)/num
b_step = b - l*(a*sx + b*sx_sq - sxy)/num
a = a_step
b = b_step
ab = np.array([[a],[b]])
errors.append(error_square_numpy(ab,x_np,y_np))
return (ab),(errors[2:])
# запишем массив значений
list_parametres_gradient_descence = gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001)
print ' 33[1m' + ' 33[4m' + "Значения коэффициентов a и b:" + ' 33[0m'
print 'a =', round(list_parametres_gradient_descence[0][0],3)
print 'b =', round(list_parametres_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений:" + ' 33[0m'
print round(list_parametres_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "Количество итераций в градиентном спуске:" + ' 33[0m'
print len(list_parametres_gradient_descence[1])
print
குணக மதிப்புகள் и மாற்ற முடியாத.
சாய்வு இறக்கத்தின் போது பிழை எவ்வாறு மாறியது, அதாவது ஒவ்வொரு அடியிலும் ஸ்கொயர் விலகல்களின் கூட்டுத்தொகை எவ்வாறு மாறியது என்பதைப் பார்ப்போம்.
சதுர விலகல்களின் தொகைகளைத் திட்டமிடுவதற்கான குறியீடு
print 'График№4 "Сумма квадратов отклонений по-шагово"'
plt.plot(range(len(list_parametres_gradient_descence[1])), list_parametres_gradient_descence[1], color='red', lw=3)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
வரைபட எண். 4 “கிரேடியன்ட் இறக்கத்தின் போது சதுர விலகல்களின் கூட்டுத்தொகை”
ஒவ்வொரு அடியிலும் பிழை குறைவதை வரைபடத்தில் காண்கிறோம், மேலும் ஒரு குறிப்பிட்ட எண்ணிக்கையிலான மறு செய்கைகளுக்குப் பிறகு கிட்டத்தட்ட கிடைமட்ட கோட்டைக் கவனிக்கிறோம்.
இறுதியாக, குறியீடு செயல்படுத்தும் நேரத்தின் வித்தியாசத்தை மதிப்பிடுவோம்:
சாய்வு இறங்கு கணக்கீட்டு நேரத்தை தீர்மானிக்க குறியீடு
print ' 33[1m' + ' 33[4m' + "Время выполнения градиентного спуска без использования библиотеки NumPy:" + ' 33[0m'
%timeit list_parametres_gradient_descence = gradient_descent_usual(x_us,y_us,l=0.1,tolerance=0.000000000001)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' + "Время выполнения градиентного спуска с использованием библиотеки NumPy:" + ' 33[0m'
%timeit list_parametres_gradient_descence = gradient_descent_numpy(x_np,y_np,l=0.1,tolerance=0.000000000001)
ஒருவேளை நாங்கள் ஏதாவது தவறு செய்கிறோம், ஆனால் மீண்டும் இது ஒரு எளிய "வீட்டில் எழுதப்பட்ட" செயல்பாடு ஆகும், இது நூலகத்தைப் பயன்படுத்தாது நம்பி நூலகத்தைப் பயன்படுத்தி ஒரு செயல்பாட்டின் கணக்கீட்டு நேரத்தை மிஞ்சும் நம்பி.
ஆனால் நாங்கள் இன்னும் நிற்கவில்லை, ஆனால் எளிய நேரியல் பின்னடைவு சமன்பாட்டைத் தீர்க்க மற்றொரு அற்புதமான வழியைப் படிப்பதை நோக்கி நகர்கிறோம். சந்திப்போம்!
சீரான சாய்வு வம்சாவளி
சீரான சாய்வு வம்சாவளியின் செயல்பாட்டின் கொள்கையை விரைவாக புரிந்துகொள்வதற்கு, சாதாரண சாய்வு வம்சாவளியிலிருந்து அதன் வேறுபாடுகளை தீர்மானிக்க நல்லது. நாம், சாய்வு வம்சாவளியில், வழித்தோன்றல்களின் சமன்பாடுகளில் и மாதிரியில் கிடைக்கும் அனைத்து அம்சங்களின் மதிப்புகள் மற்றும் உண்மையான பதில்களின் தொகையைப் பயன்படுத்தியது (அதாவது, எல்லாவற்றின் கூட்டுத்தொகைகள் и ) சீரான சாய்வு வம்சாவளியில், மாதிரியில் உள்ள அனைத்து மதிப்புகளையும் நாங்கள் பயன்படுத்த மாட்டோம், மாறாக, போலி தோராயமாக மாதிரி குறியீட்டு என்று அழைக்கப்படுவதைத் தேர்ந்தெடுத்து அதன் மதிப்புகளைப் பயன்படுத்துகிறோம்.
எடுத்துக்காட்டாக, குறியீட்டு எண் 3 (மூன்று) என தீர்மானிக்கப்பட்டால், நாம் மதிப்புகளை எடுத்துக்கொள்கிறோம் и , பின்னர் நாம் மதிப்புகளை வழித்தோன்றல் சமன்பாடுகளில் மாற்றுகிறோம் மற்றும் புதிய ஆயங்களை தீர்மானிக்கிறோம். பின்னர், ஆயங்களைத் தீர்மானித்த பிறகு, நாங்கள் மீண்டும் போலி-தோராயமாக மாதிரி குறியீட்டைத் தீர்மானிக்கிறோம், குறியீட்டுடன் தொடர்புடைய மதிப்புகளை பகுதி வேறுபாடு சமன்பாடுகளாக மாற்றுகிறோம், மேலும் ஆயங்களை ஒரு புதிய வழியில் தீர்மானிக்கிறோம். и முதலியன ஒன்றிணைதல் பச்சை நிறமாக மாறும் வரை. முதல் பார்வையில், இது வேலை செய்யாது என்று தோன்றலாம், ஆனால் அது செயல்படுகிறது. ஒவ்வொரு அடியிலும் பிழை குறைவதில்லை என்பது உண்மைதான், ஆனால் நிச்சயமாக ஒரு போக்கு உள்ளது.
வழக்கமான சாய்வு வம்சாவளியின் நன்மைகள் என்ன? எங்கள் மாதிரி அளவு மிகப் பெரியதாகவும், பல்லாயிரக்கணக்கான மதிப்புகளில் அளவிடப்பட்டதாகவும் இருந்தால், முழு மாதிரியை விட, அவற்றில் ஒரு சீரற்ற ஆயிரத்தை செயலாக்குவது மிகவும் எளிதானது. இங்குதான் ஸ்டோகாஸ்டிக் கிரேடியண்ட் வம்சாவளி வருகிறது. எங்கள் விஷயத்தில், நிச்சயமாக, நாங்கள் அதிக வித்தியாசத்தை கவனிக்க மாட்டோம்.
குறியீட்டைப் பார்ப்போம்.
சீரற்ற சாய்வு வம்சாவளிக்கான குறியீடு
# определим функцию стох.град.шага
def stoch_grad_step_usual(vector_init, x_us, ind, y_us, l):
# выбираем значение икс, которое соответствует случайному значению параметра ind
# (см.ф-цию stoch_grad_descent_usual)
x = x_us[ind]
# рассчитывыаем значение y (выручку), которая соответствует выбранному значению x
y_pred = vector_init[0] + vector_init[1]*x_us[ind]
# вычисляем ошибку расчетной выручки относительно представленной в выборке
error = y_pred - y_us[ind]
# определяем первую координату градиента ab
grad_a = error
# определяем вторую координату ab
grad_b = x_us[ind]*error
# вычисляем новый вектор коэффициентов
vector_new = [vector_init[0]-l*grad_a, vector_init[1]-l*grad_b]
return vector_new
# определим функцию стох.град.спуска
def stoch_grad_descent_usual(x_us, y_us, l=0.1, steps = 800):
# для самого начала работы функции зададим начальные значения коэффициентов
vector_init = [float(random.uniform(-0.5, 0.5)), float(random.uniform(-0.5, 0.5))]
errors = []
# запустим цикл спуска
# цикл расчитан на определенное количество шагов (steps)
for i in range(steps):
ind = random.choice(range(len(x_us)))
new_vector = stoch_grad_step_usual(vector_init, x_us, ind, y_us, l)
vector_init = new_vector
errors.append(errors_sq_Kramer_method(vector_init,x_us,y_us))
return (vector_init),(errors)
# запишем массив значений
list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.1, steps = 800)
print ' 33[1m' + ' 33[4m' + "Значения коэффициентов a и b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "Количество итераций в стохастическом градиентном спуске:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
குணகங்களைக் கவனமாகப் பார்த்து, "இது எப்படி இருக்க முடியும்?" என்ற கேள்வியைக் கேட்கிறோம். பிற குணக மதிப்புகளைப் பெற்றுள்ளோம் и . ஒருவேளை சீரற்ற சாய்வு வம்சாவளி சமன்பாட்டிற்கு மிகவும் உகந்த அளவுருக்களைக் கண்டறிந்துள்ளதா? துரதிருஷ்டவசமாக இல்லை. சதுர விலகல்களின் கூட்டுத்தொகையைப் பார்த்து, குணகங்களின் புதிய மதிப்புகளுடன், பிழை அதிகமாக இருப்பதைப் பார்ப்பது போதுமானது. விரக்தியடைய நாங்கள் அவசரப்படவில்லை. பிழை மாற்றத்தின் வரைபடத்தை உருவாக்குவோம்.
சீரற்ற சாய்வு வம்சாவளியில் ஸ்கொயர்டு விலகல்களின் கூட்டுத்தொகையைத் திட்டமிடுவதற்கான குறியீடு
print 'График №5 "Сумма квадратов отклонений по-шагово"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1])), list_parametres_stoch_gradient_descence[1], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
வரைபட எண். 5 "ஸ்டோகாஸ்டிக் கிரேடியன்ட் வம்சாவளியின் போது ஸ்கொயர்டு விலகல்களின் கூட்டுத்தொகை"
அட்டவணையைப் பார்த்தால், எல்லாம் சரியாகிவிடும், இப்போது எல்லாவற்றையும் சரிசெய்வோம்.
அதனால் என்ன நடந்தது? பின்வருவது நடந்தது. நாம் ஒரு மாதத்தைத் தோராயமாகத் தேர்ந்தெடுக்கும்போது, தேர்ந்தெடுக்கப்பட்ட மாதத்திற்குத் தான் எங்கள் வழிமுறையானது வருவாயைக் கணக்கிடுவதில் உள்ள பிழையைக் குறைக்க முயல்கிறது. நாங்கள் மற்றொரு மாதத்தைத் தேர்ந்தெடுத்து கணக்கீட்டை மீண்டும் செய்கிறோம், ஆனால் தேர்ந்தெடுக்கப்பட்ட இரண்டாவது மாதத்திற்கான பிழையைக் குறைக்கிறோம். எளிய நேரியல் பின்னடைவு சமன்பாட்டின் கோட்டிலிருந்து முதல் இரண்டு மாதங்கள் கணிசமாக விலகுவதை இப்போது நினைவில் கொள்ளுங்கள். இதன் பொருள், இந்த இரண்டு மாதங்களில் ஏதேனும் ஒன்றைத் தேர்ந்தெடுக்கும்போது, அவை ஒவ்வொன்றின் பிழையைக் குறைப்பதன் மூலம், முழு மாதிரிக்கான பிழையை எங்கள் அல்காரிதம் தீவிரமாக அதிகரிக்கிறது. அதனால் என்ன செய்வது? பதில் எளிது: நீங்கள் இறங்கும் படி குறைக்க வேண்டும். எல்லாவற்றிற்கும் மேலாக, இறங்கு படியைக் குறைப்பதன் மூலம், பிழை மேலும் கீழும் "குதிப்பதை" நிறுத்தும். அல்லது மாறாக, "ஜம்பிங்" பிழை நிறுத்தாது, ஆனால் அது அவ்வளவு சீக்கிரம் செய்யாது :) சரிபார்ப்போம்.
சிறிய அதிகரிப்புகளுடன் SGD ஐ இயக்குவதற்கான குறியீடு
# запустим функцию, уменьшив шаг в 100 раз и увеличив количество шагов соответсвующе
list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.001, steps = 80000)
print ' 33[1m' + ' 33[4m' + "Значения коэффициентов a и b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "Количество итераций в стохастическом градиентном спуске:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
print 'График №6 "Сумма квадратов отклонений по-шагово"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1])), list_parametres_stoch_gradient_descence[1], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
வரைபட எண். 6 "ஸ்டோகாஸ்டிக் கிரேடியன்ட் வம்சாவளியின் போது ஸ்கொயர் விலகல்களின் கூட்டுத்தொகை (80 ஆயிரம் படிகள்)"
குணகங்கள் மேம்படுத்தப்பட்டுள்ளன, ஆனால் இன்னும் சிறந்ததாக இல்லை. அனுமானமாக, இதை இந்த வழியில் சரிசெய்யலாம். எடுத்துக்காட்டாக, கடந்த 1000 மறு செய்கைகளில் குறைந்தபட்ச பிழை செய்யப்பட்ட குணகங்களின் மதிப்புகளைத் தேர்ந்தெடுக்கிறோம். உண்மை, இதற்காக நாம் குணகங்களின் மதிப்புகளையும் எழுத வேண்டும். நாங்கள் இதைச் செய்ய மாட்டோம், மாறாக அட்டவணையில் கவனம் செலுத்துங்கள். இது மென்மையாகவும், பிழை சமமாக குறைவதாகவும் தெரிகிறது. உண்மையில் இது உண்மையல்ல. முதல் 1000 மறு செய்கைகளைப் பார்த்து, கடைசியுடன் ஒப்பிடுவோம்.
SGD விளக்கப்படத்திற்கான குறியீடு (முதல் 1000 படிகள்)
print 'График №7 "Сумма квадратов отклонений по-шагово. Первые 1000 итераций"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1][:1000])),
list_parametres_stoch_gradient_descence[1][:1000], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
print 'График №7 "Сумма квадратов отклонений по-шагово. Последние 1000 итераций"'
plt.plot(range(len(list_parametres_stoch_gradient_descence[1][-1000:])),
list_parametres_stoch_gradient_descence[1][-1000:], color='red', lw=2)
plt.xlabel('Steps (Iteration)', size=16)
plt.ylabel('Sum of squared deviations', size=16)
plt.show()
வரைபட எண். 7 "ஸ்குயர்டு விலகல்களின் கூட்டுத்தொகை SGD (முதல் 1000 படிகள்)"
வரைபட எண். 8 "ஸ்குயர்டு விலகல்களின் கூட்டுத்தொகை SGD (கடைசி 1000 படிகள்)"
வம்சாவளியின் ஆரம்பத்திலேயே, பிழையில் மிகவும் சீரான மற்றும் செங்குத்தான குறைவை நாங்கள் கவனிக்கிறோம். கடைசி மறு செய்கைகளில், பிழையானது 1,475 இன் மதிப்பைச் சுற்றிச் செல்வதையும், சில தருணங்களில் இந்த உகந்த மதிப்புக்கு சமமாக இருப்பதையும் காண்கிறோம், ஆனால் அது இன்னும் மேலே செல்கிறது ... நான் மீண்டும் சொல்கிறேன், நீங்கள் மதிப்புகளை எழுதலாம். குணகங்கள் и , பின்னர் பிழை குறைவாக உள்ளவற்றைத் தேர்ந்தெடுக்கவும். எவ்வாறாயினும், எங்களுக்கு மிகவும் தீவிரமான சிக்கல் இருந்தது: மதிப்புகளை உகந்ததாகப் பெற 80 ஆயிரம் படிகள் (குறியீட்டைப் பார்க்கவும்) எடுக்க வேண்டியிருந்தது. இது ஏற்கனவே சாய்வு வம்சாவளியுடன் ஒப்பிடும்போது சீரான சாய்வு வம்சாவளியைக் கொண்டு கணக்கீட்டு நேரத்தைச் சேமிக்கும் யோசனைக்கு முரணானது. எதை சரிசெய்து மேம்படுத்தலாம்? முதல் மறு செய்கைகளில் நாம் நம்பிக்கையுடன் கீழே செல்கிறோம் என்பதைக் கவனிப்பது கடினம் அல்ல, எனவே, முதல் மறு செய்கைகளில் ஒரு பெரிய படியை விட்டுவிட்டு, நாம் முன்னேறும்போது படியைக் குறைக்க வேண்டும். இந்த கட்டுரையில் இதை நாங்கள் செய்ய மாட்டோம் - இது ஏற்கனவே மிக நீண்டது. இதை எப்படி செய்வது என்று விரும்புவோர் சுயமாக சிந்திக்கலாம், இது கடினம் அல்ல :)
இப்போது நூலகத்தைப் பயன்படுத்தி சீரான சாய்வு வம்சாவளியைச் செய்வோம் நம்பி (மேலும் நாம் முன்பு அடையாளம் கண்ட கற்கள் மீது தடுமாற வேண்டாம்)
சீரற்ற சாய்வு வம்சாவளிக்கான குறியீடு (NumPy)
# для начала напишем функцию градиентного шага
def stoch_grad_step_numpy(vector_init, X, ind, y, l):
x = X[ind]
y_pred = np.dot(x,vector_init)
err = y_pred - y[ind]
grad_a = err
grad_b = x[1]*err
return vector_init - l*np.array([grad_a, grad_b])
# определим функцию стохастического градиентного спуска
def stoch_grad_descent_numpy(X, y, l=0.1, steps = 800):
vector_init = np.array([[np.random.randint(X.shape[0])], [np.random.randint(X.shape[0])]])
errors = []
for i in range(steps):
ind = np.random.randint(X.shape[0])
new_vector = stoch_grad_step_numpy(vector_init, X, ind, y, l)
vector_init = new_vector
errors.append(error_square_numpy(vector_init,X,y))
return (vector_init), (errors)
# запишем массив значений
list_parametres_stoch_gradient_descence = stoch_grad_descent_numpy(x_np, y_np, l=0.001, steps = 80000)
print ' 33[1m' + ' 33[4m' + "Значения коэффициентов a и b:" + ' 33[0m'
print 'a =', round(list_parametres_stoch_gradient_descence[0][0],3)
print 'b =', round(list_parametres_stoch_gradient_descence[0][1],3)
print
print ' 33[1m' + ' 33[4m' + "Сумма квадратов отклонений:" + ' 33[0m'
print round(list_parametres_stoch_gradient_descence[1][-1],3)
print
print ' 33[1m' + ' 33[4m' + "Количество итераций в стохастическом градиентном спуске:" + ' 33[0m'
print len(list_parametres_stoch_gradient_descence[1])
print
பயன்படுத்தாமல் இறங்கும்போது மதிப்புகள் கிட்டத்தட்ட ஒரே மாதிரியாக மாறியது நம்பி. இருப்பினும், இது தர்க்கரீதியானது.
சீரான சாய்வு வம்சாவளி நம்மை எவ்வளவு நேரம் எடுத்தது என்பதைக் கண்டுபிடிப்போம்.
SGD கணக்கீட்டு நேரத்தை தீர்மானிப்பதற்கான குறியீடு (80 ஆயிரம் படிகள்)
print ' 33[1m' + ' 33[4m' +
"Время выполнения стохастического градиентного спуска без использования библиотеки NumPy:"
+ ' 33[0m'
%timeit list_parametres_stoch_gradient_descence = stoch_grad_descent_usual(x_us, y_us, l=0.001, steps = 80000)
print '***************************************'
print
print ' 33[1m' + ' 33[4m' +
"Время выполнения стохастического градиентного спуска с использованием библиотеки NumPy:"
+ ' 33[0m'
%timeit list_parametres_stoch_gradient_descence = stoch_grad_descent_numpy(x_np, y_np, l=0.001, steps = 80000)
காட்டுக்குள் மேலும், இருண்ட மேகங்கள்: மீண்டும், "சுயமாக எழுதப்பட்ட" சூத்திரம் சிறந்த முடிவைக் காட்டுகிறது. இவை அனைத்தும் நூலகத்தைப் பயன்படுத்த இன்னும் நுட்பமான வழிகள் இருக்க வேண்டும் என்று கூறுகின்றன நம்பி, இது உண்மையில் கணக்கீட்டு செயல்பாடுகளை விரைவுபடுத்துகிறது. இந்த கட்டுரையில் நாம் அவர்களைப் பற்றி அறிய மாட்டோம். உங்கள் ஓய்வு நேரத்தில் சிந்திக்க ஏதாவது இருக்கும் :)
சுருக்கமாக சொல்கிறேன்
சுருக்கமாகக் கூறுவதற்கு முன், எங்கள் அன்பான வாசகரிடமிருந்து பெரும்பாலும் எழும் கேள்விக்கு பதிலளிக்க விரும்புகிறேன். ஏன், உண்மையில், வம்சாவளியைக் கொண்ட இதுபோன்ற "சித்திரவதைகள்", பொக்கிஷமான தாழ்நிலத்தைக் கண்டுபிடிக்க ஏன் மலையின் ஏறி இறங்க வேண்டும் (பெரும்பாலும் கீழே), நம் கைகளில் இவ்வளவு சக்திவாய்ந்த மற்றும் எளிமையான சாதனம் இருந்தால், ஒரு பகுப்பாய்வு தீர்வின் வடிவம், இது உடனடியாக நம்மை சரியான இடத்திற்கு டெலிபோர்ட் செய்யும்?
இந்த கேள்விக்கான பதில் மேற்பரப்பில் உள்ளது. இப்போது நாம் ஒரு மிக எளிய உதாரணத்தைப் பார்த்தோம், அதில் உண்மையான பதில் ஒரு அடையாளத்தைப் பொறுத்தது . வாழ்க்கையில் இதை நீங்கள் அடிக்கடி பார்க்க மாட்டீர்கள், எனவே எங்களிடம் 2, 30, 50 அல்லது அதற்கு மேற்பட்ட அறிகுறிகள் இருப்பதாக கற்பனை செய்யலாம். ஒவ்வொரு பண்புக்கும் ஆயிரக்கணக்கான அல்லது பல்லாயிரக்கணக்கான மதிப்புகளைச் சேர்ப்போம். இந்த வழக்கில், பகுப்பாய்வு தீர்வு சோதனையைத் தாங்காது மற்றும் தோல்வியடையும். இதையொட்டி, சாய்வு வம்சாவளி மற்றும் அதன் மாறுபாடுகள் மெதுவாக ஆனால் நிச்சயமாக நம்மை இலக்கை நெருங்கும் - செயல்பாட்டின் குறைந்தபட்சம். வேகத்தைப் பற்றி கவலைப்பட வேண்டாம் - படி நீளத்தை (அதாவது வேகம்) அமைக்கவும் கட்டுப்படுத்தவும் அனுமதிக்கும் வழிகளைப் பார்ப்போம்.
இப்போது உண்மையான சுருக்கமான சுருக்கம்.
முதலாவதாக, எளிய (மற்றும் மட்டுமல்ல) நேரியல் பின்னடைவு சமன்பாடுகளை எவ்வாறு தீர்ப்பது என்பதைப் புரிந்துகொள்வதில் "தரவு விஞ்ஞானிகளை" தொடங்குவதற்கு கட்டுரையில் வழங்கப்பட்ட பொருள் உதவும் என்று நம்புகிறேன்.
இரண்டாவதாக, சமன்பாட்டைத் தீர்க்க பல வழிகளைப் பார்த்தோம். இப்போது, சூழ்நிலையைப் பொறுத்து, சிக்கலைத் தீர்க்க மிகவும் பொருத்தமான ஒன்றைத் தேர்ந்தெடுக்கலாம்.
மூன்றாவதாக, கூடுதல் அமைப்புகளின் சக்தியைப் பார்த்தோம், அதாவது சாய்வு இறங்கு படி நீளம். இந்த அளவுருவை புறக்கணிக்க முடியாது. மேலே குறிப்பிட்டுள்ளபடி, கணக்கீடுகளின் விலையைக் குறைக்க, இறங்கும் போது படி நீளம் மாற்றப்பட வேண்டும்.
நான்காவதாக, எங்கள் விஷயத்தில், "வீட்டில் எழுதப்பட்ட" செயல்பாடுகள் கணக்கீடுகளுக்கான சிறந்த நேர முடிவுகளைக் காட்டின. இது நூலகத்தின் திறன்களை மிகவும் தொழில்முறையாகப் பயன்படுத்தாததன் காரணமாக இருக்கலாம் நம்பி. ஆனால் அது எப்படியிருந்தாலும், பின்வரும் முடிவு தன்னைத்தானே அறிவுறுத்துகிறது. ஒருபுறம், சில நேரங்களில் நிறுவப்பட்ட கருத்துக்களைக் கேள்வி கேட்பது மதிப்புக்குரியது, மறுபுறம், எல்லாவற்றையும் சிக்கலாக்குவது எப்போதும் மதிப்புக்குரியது அல்ல - மாறாக, சில நேரங்களில் சிக்கலைத் தீர்ப்பதற்கான எளிய வழி மிகவும் பயனுள்ளதாக இருக்கும். ஒரு எளிய நேரியல் பின்னடைவு சமன்பாட்டைத் தீர்ப்பதற்கான மூன்று அணுகுமுறைகளை பகுப்பாய்வு செய்வதே எங்கள் குறிக்கோள் என்பதால், "சுய-எழுதப்பட்ட" செயல்பாடுகளின் பயன்பாடு எங்களுக்கு போதுமானதாக இருந்தது.
இலக்கியம் (அல்லது அது போன்ற ஏதாவது)
1. நேரியல் பின்னடைவு
2. குறைந்த சதுர முறை
3. வழித்தோன்றல்
4. சாய்வு
5. சாய்வு வம்சாவளி
6. NumPy நூலகம்