Event-driven architecture павялічвае коштавую эфектыўнасць выкарыстоўваных рэсурсаў, таму што яны задзейнічаюцца толькі ў той момант, калі яны патрэбныя. Існуе маса варыянтаў, як гэта рэалізаваць і не ствараць дадатковыя хмарныя сутнасці ў якасці worker-прыкладанняў. І сёння я раскажу не пра FaaS, а пра вэбхукі. Я пакажу навучальны прыклад апрацоўкі падзей з дапамогай вэбхукаў аб'ектнага сховішча.
Пары слоў аб аб'ектным сховішчы і аб вебхуках. Аб'ектныя сховішчы дазваляюць захоўваць любыя дадзеныя ў воблаку ў выглядзе аб'ектаў, даступных па S3 ці іншаму API (у залежнасці ад рэалізацыі) праз HTTP/HTTPS. Вэбхукі (webhooks) у агульным выпадку – гэта карыстацкія зваротныя выклікі па HTTP. Звычайна яны запускаюцца падзеяй, напрыклад, адпраўкай кода ў рэпазітар або каментаром, публікуемым у блогу. Калі адбываецца падзея, зыходны сайт адпраўляе HTTP-запыт на URL-адрас, паказаны для вэбхука. У выніку можна зрабіць так, каб падзеі на адным сайце выклікалі дзеянні на іншым (вікі). У выпадку, калі зыходным сайтам выступае аб'ектнае сховішча, у ролі падзеяў выступаюць змены яго змесціва.
Прыклады простых кейсаў, калі можна выкарыстоўваць такую аўтаматызацыю:
Стварэнне копій усіх аб'ектаў у іншым хмарным сховішчы. Копіі павінны стварацца "на лёце", пры любым даданні ці змене файлаў.
Аўтаматычнае стварэнне серый мініяцюр графічных файлаў, даданне вадзяных знакаў да фатаграфій, іншыя мадыфікацыі малюнкаў.
Абвестка аб прыходзе новых дакументаў (напрыклад, размеркаваная бухгалтарская служба выкладвае ў воблака справаздачы, а финмониторинг атрымлівае абвесткі аб новых справаздачах, правярае і аналізуе іх).
Крыху больш складаныя кейсы мяркуюць, напрыклад, фармаванне запыту да Kubernetes, які стварае пад з патрэбнымі кантэйнерамі, перадае ў яго параметры задачы і пасля апрацоўкі згортвае кантэйнер.
У якасці прыкладу мы зробім варыянт задачы 1, калі змены ў бакеце аб'ектнага сховішча Mail.ru Cloud Solutions (MCS) з дапамогай вебхуков сінхранізуюцца ў аб'ектным сховішчы AWS. У рэальным нагружаным кейсе варта прадугледзець асінхронную працу за рахунак рэгістрацыі вебхуков у чарзе, але для вучэбнай задачы мы зробім рэалізацыю без гэтага.
Сэрвіс публікацыі, які знаходзіцца на баку S3-сховішча і публікуе HTTP-запыты пры спрацоўванні webnhook.
Сервер прыёму вэбхукаў, які слухае звароты сэрвісу публікацыі па HTTP і выконвае адпаведныя дзеянні. Сервер можа быць напісаны на любой мове, у нашым прыкладзе мы напішам сервер на Go.
Асаблівасць рэалізацыі вебхуков у S3 API - рэгістрацыя сервера прыёму вебхуков на сэрвісе публікацыі. У прыватнасці, сервер прыёму вэбхукаў павінен пацвердзіць падпіску на паведамленні сэрвісу публікацыі (у іншых рэалізацыях вэбхукаў звычайна пацвярджаць падпіску не патрабуецца).
Адпаведна, сервер прыёму вебхуков павінен падтрымліваць дзве асноўныя аперацыі:
адказваць на запыт сэрвісу публікацыі аб пацвярджэнні рэгістрацыі,
апрацоўваць прыходзяць падзеі.
Усталяванне сервера прыёму вэбхукаў
Для запуску сервера прыёму вебхуков патрэбен Linux-сервер. У дадзеным артыкуле для прыкладу выкарыстоўваем віртуальны інстанс, які разгортваем на MCS.
Усталюем неабходнае ПА і запусцім сервер прыёму вебхуков.
ubuntu@ubuntu-basic-1-2-10gb:~$ sudo apt-get install git
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following packages were automatically installed and are no longer required:
bc dns-root-data dnsmasq-base ebtables landscape-common liblxc-common
liblxc1 libuv1 lxcfs lxd lxd-client python3-attr python3-automat
python3-click python3-constantly python3-hyperlink
python3-incremental python3-pam python3-pyasn1-modules
python3-service-identity python3-twisted python3-twisted-bin
python3-zope.interface uidmap xdelta3
Use 'sudo apt autoremove' to remove them.
Suggested packages:
git-daemon-run | git-daemon-sysvinit git-doc git-el git-email git-gui
gitk gitweb git-cvs git-mediawiki git-svn
The following NEW packages will be installed:
git
0 upgraded, 1 newly installed, 0 to remove and 46 not upgraded.
Need to get 3915 kB of archives.
After this operation, 32.3 MB of additional disk space will be used.
Get:1 http://MS1.clouds.archive.ubuntu.com/ubuntu bionic-updates/main
amd64 git amd64 1:2.17.1-1ubuntu0.7 [3915 kB]
Fetched 3915 kB in 1s (5639 kB/s)
Selecting previously unselected package git.
(Reading database ... 53932 files and directories currently installed.)
Preparing to unpack .../git_1%3a2.17.1-1ubuntu0.7_amd64.deb ...
Unpacking git (1:2.17.1-1ubuntu0.7) ...
Setting up git (1:2.17.1-1ubuntu0.7) ...
Заходзім у бакет, для якога будзем наладжваць wеbhooks, і націскаем на шасцярэньку:
Пераходзім на ўкладку Webhooks і націскаем Дадаць:
Запаўняем палі:
ID - назва вебхука.
Event - якія падзеі перадаваць. Мы задалі перадачу ўсіх падзей, якія адбываюцца пры працы з файламі (даданне і выдаленне).
URL - адрас сервера прыёму вебхуков.
Filter prefix/suffix - фільтр, які дазваляе генераваць вебхуки толькі на аб'екты, назвы якіх адпавядаюць вызначаным правілам. Напрыклад, каб вебхук спрацоўваў толькі файлы з пашырэннем .png, у Filter suffix трэба напісаць "png".
У бягучы момант падтрымліваюцца для звароту да сервера прыёму вебхуков толькі порты 80 і 443.
Націснем Дадаць hook і ўбачым наступнае:
Hook дададзены.
Сервер прыёму вэбхукоў у логах паказвае праходжанне працэсу рэгістрацыі хука:
Функцыі HmacSha256 і HmacSha256hex – рэалізацыі алгарытмаў шыфравання HMAC-SHA256 і HMAC-SHA256 з высновай у выглядзе радка 16-рычных лікаў для падліку сігнатуры.
main - галоўная функцыя, апрацоўвае параметры каманднага радка і рэгіструе апрацоўшчыкі URL.
Параметры каманднага радка, якія прымаюцца серверам:
-port - порт, на якім сервер будзе слухаць.
-address - IP-адрас, які будзе слухаць сервер.
-script - знешняя праграма, якая выклікаецца на кожны прыйшоў хук.
Разгледзім падрабязней некаторыя функцыі:
//Webhook
func Webhook(w http.ResponseWriter, req *http.Request) {
// Read body
body, err := ioutil.ReadAll(req.Body)
defer req.Body.Close()
if err != nil {
http.Error(w, err.Error(), 500)
return
}
// log request
log.Printf("[%s] incoming HTTP request from %sn", req.Method, req.RemoteAddr)
// check if we got subscription confirmation request
if strings.Contains(string(body),
""Type":"SubscriptionConfirmation"") {
SubscriptionConfirmation(w, req, body)
} else {
GotRecords(w, req, body)
}
}
Гэтая функцыя вызначае, што нетутэйша – запыт на пацверджанне рэгістрацыі або вебхук. Як вынікае з дакументацыі, у выпадку пацверджання рэгістрацыі прыходзіць наступная структура Json у запыце Post:
POST http://test.com HTTP/1.1
x-amz-sns-messages-type: SubscriptionConfirmation
content-type: application/json
{
"Timestamp":"2019-12-26T19:29:12+03:00",
"Type":"SubscriptionConfirmation",
"Message":"You have chosen to subscribe to the topic $topic. To confirm the subscription you need to response with calculated signature",
"TopicArn":"mcs2883541269|bucketA|s3:ObjectCreated:Put",
"SignatureVersion":1,
"Token":«RPE5UuG94rGgBH6kHXN9FUPugFxj1hs2aUQc99btJp3E49tA»
}
Адпаведна, у залежнасці ад запыту трэба зразумець, як апрацоўваць дадзеныя. Я абраў у якасці індыкатара запіс "Type":"SubscriptionConfirmation", паколькі яна прысутнічае ў запыце на пацверджанне падпіскі і не прысутнічае ў вэбхуку. Зыходзячы з наяўнасці/адсутнасці гэтага запісу ў POST-запыце, далейшае выкананне праграмы пераходзіць альбо ў функцыю SubscriptionConfirmation, альбо ў функцыю GotRecords.
Функцыю SubscriptionConfirmation дэталёва разглядаць не будзем, яна рэалізавана па прынцыпах, выкладзеным у дакументацыі. Вывучыць зыходны код гэтай функцыі можна ў git-рэпазітары праекта.
Функцыя GotRecords разбірае прыходны запыт і для кожнага аб'екта Record выклікае вонкавы скрыпт (імя якога было перададзена ў параметры -script) з параметрамі:
імя бакета
ключ аб'екта
дзеянне:
copy - калі ў зыходным запыце EventName = ObjectCreated | PutObject | PutObjectCopy
delete - калі ў зыходным запыце EventName = ObjectRemoved | DeleteObject
Такім чынам, калі прыляцеў хук c Post-запытам, як апісана вышэй, і параметр -script=script.sh то скрыпт будзе выкліканы наступным чынам:
script.sh bucketA some-file-to-bucket copy
Варта разумець, што дадзены сервер прыёму вебхуков – гэта не скончанае production-рашэнне, а спрошчаны прыклад магчымай рэалізацыі.
Прыклад працы
Зробім сінхранізацыю файлаў асноўнага бакета ў MCS у рэзервовы бакет у AWS. Асноўны бакет завецца myfiles-ash, рэзервовы - myfiles-backup (канфігурацыя бакета ў AWS выходзіць за межы дадзенага артыкула). Адпаведна, калі файл кладзецца ў асноўны бакет, яго копія павінна з'явіцца ў рэзервовым, калі выдаляецца з асноўнага - выдаляцца ў рэзервовым.
Працаваць з бакетамі будзем утылітай awscli, з якой сумяшчальна як хмарнае сховішча MCS, так і хмарнае сховішча AWS.
ubuntu@ubuntu-basic-1-2-10gb:~$ sudo apt-get install awscli
Reading package lists... Done
Building dependency tree
Reading state information... Done
After this operation, 34.4 MB of additional disk space will be used.
Unpacking awscli (1.14.44-1ubuntu1) ...
Setting up awscli (1.14.44-1ubuntu1) ...
Канфігуруем доступ да API S3 MCS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws configure --profile mcs
AWS Access Key ID [None]: hdywEPtuuJTExxxxxxxxxxxxxx
AWS Secret Access Key [None]: hDz3SgxKwXoxxxxxxxxxxxxxxxxxx
Default region name [None]:
Default output format [None]:
Канфігуруем доступ да API S3 AWS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws configure --profile aws
AWS Access Key ID [None]: AKIAJXXXXXXXXXXXX
AWS Secret Access Key [None]: dfuerphOLQwu0CreP5Z8l5fuXXXXXXXXXXXXXXXX
Default region name [None]:
Default output format [None]:
Праверым доступы:
Да AWS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws s3 ls --profile aws
2020-07-06 08:44:11 myfiles-backup
Для MCS, пры працы каманды трэба дадаваць -endpoint-url:
Правяраем, як гэта спрацуе. Праз вэб-інтэрфейс MCS дадамо файл test.txt у бакет myfiles-ash. У логах у кансолі відаць, што быў зроблены запыт на сервер вебхуков:
2020/07/06 09:43:08 [POST] incoming HTTP request from
95.163.216.92:56612
download: s3://myfiles-ash/test.txt to ../../../tmp/myfiles-ash/test.txt
upload: ../../../tmp/myfiles-ash/test.txt to
s3://myfiles-backup/test.txt
Цяпер праз вэб-інтэрфейс выдалім файл з бакета myfiles-ash.
Логі сервера:
2020/07/06 09:44:46 [POST] incoming HTTP request from
95.163.216.92:58224
delete: s3://myfiles-backup/test.txt
Змесціва бакета:
ubuntu@ubuntu-basic-1-2-10gb:~/s3-webhook$ aws s3 --profile aws ls
myfiles-backup
ubuntu@ubuntu-basic-1-2-10gb:~$
Файл выдалены, задача вырашана.
Заключэнне і ToDo
Увесь код, які выкарыстоўваецца ў гэтым артыкуле, ляжыць у маім рэпазітары. Там жа ляжаць прыклады скрыптоў і прыклады падліку сігнатур для рэгістрацыі вэбхукаў.
Дадзены код – не больш за прыклад таго, як можна выкарыстоўваць S3-вебхукі ў сваёй дзейнасці. Як я сказаў у пачатку, калі планаваць выкарыстанне такога сервера ў прадуктыве, неабходна як мінімум перапісваць сервер пад асінхронную працу: якія прыходзяць вэбхукі рэгістраваць у чарзе (RabbitMQ ці NATS), а адтуль іх разбіраць і апрацоўваць worker-прыкладаннямі. Інакш пры масіраваным прыходзе вебхуков можна сутыкнуцца з недахопам рэсурсаў сервера для выканання задач. Наяўнасць жа чэргаў дазваляе разносіць сервер і workers, а таксама вырашаць пытанні з паўторам задач у выпадку збояў. Гэтак жа пажадана мяняць лагіраванне на больш падрабязнае і больш стандартызаванае.