Event-driven architecture підвищує цінову ефективність використовуваних ресурсів, оскільки вони задіяні лише тоді, коли вони потрібні. Існує безліч варіантів, як це реалізувати і не створювати додаткові хмарні сутності як worker-додатків. І сьогодні я розповім не про FaaS, а про веб-хуки. Я покажу навчальний приклад обробки подій за допомогою веб-хуків об'єктного сховища.
Пара слів про об'єктне сховище та про вебхуки. Об'єктні сховища дозволяють зберігати будь-які дані в хмарі у вигляді об'єктів, доступних S3 або іншому API (залежно від реалізації) через HTTP/HTTPS. Вебхуки (webhooks) в загальному випадку - це зворотні дзвінки користувача по HTTP. Зазвичай вони запускаються подією, наприклад, відправкою коду до репозиторію або коментарем, що публікується в блозі. Коли відбувається подія, вихідний сайт відправляє HTTP-запит на URL-адресу, вказану для вебхука. В результаті можна зробити так, щоб події на одному сайті викликали дії на іншому (вики). У випадку, коли вихідним сайтом є об'єктне сховище, в ролі подій виступають зміни його вмісту.
Приклади простих кейсів, коли можна використовувати таку автоматизацію:
Створення копій усіх об'єктів в іншому хмарному сховищі. Копії повинні створюватися на льоту, при будь-якому додаванні або зміні файлів.
Автоматичне створення мініатюр графічних файлів, додавання водяних знаків до фотографій, інші модифікації зображень.
Оповіщення про надходження нових документів (наприклад, розподілена бухгалтерська служба викладає у хмару звіти, а фінмоніторинг отримує оповіщення про нові звіти, перевіряє та аналізує їх).
Трохи більш складні кейси мають на увазі, наприклад, формування запиту до Kubernetes, який створює під потрібними контейнерами, передає в нього параметри завдання і після обробки згортає контейнер.
Як приклад, ми зробимо варіант задачі 1, коли зміни в бакеті об'єктного сховища Mail.ru Cloud Solutions (MCS) за допомогою вебхуків синхронізуються в об'єктному сховищі AWS. У реальному навантаженому кейсі слід передбачити асинхронну роботу за рахунок реєстрації веб-хуків у черзі, але для навчального завдання ми зробимо реалізацію без цього.
Сервіс публікації, що знаходиться на стороні S3-сховища і публікує HTTP-запити при спрацюванні webnhook.
Сервер прийому веб-хуків, який слухає звернення сервісу публікації з HTTP та виконує відповідні дії. Сервер може бути написаний будь-якою мовою, у прикладі ми напишемо сервер на Go.
Особливість реалізації веб-хуків в S3 API - реєстрація сервера прийому веб-хуків на сервісі публікації. Зокрема, сервер прийому веб-хуків повинен підтвердити підписку на повідомлення сервісу публікації (в інших реалізаціях веб-хуків зазвичай підтверджувати передплату не потрібно).
Відповідно, сервер прийому веб-хуків повинен підтримувати дві основні операції:
відповідати на запит сервісу публікації про підтвердження реєстрації,
обробляти події, що приходять.
Встановлення сервера прийому веб-хуків
Для запуску сервера прийому веб-хуків потрібен Linux-сервер. У цій статті приклад використовуємо віртуальний інстанс, який розгортаємо на MCS.
Встановимо необхідне ПЗ та запустимо сервер прийому веб-хуків.
ubuntu@ubuntu-basic-1-2-10gb:~$ sudo apt-get install git
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following packages were automatically installed and are no longer required:
bc dns-root-data dnsmasq-base ebtables landscape-common liblxc-common
liblxc1 libuv1 lxcfs lxd lxd-client python3-attr python3-automat
python3-click python3-constantly python3-hyperlink
python3-incremental python3-pam python3-pyasn1-modules
python3-service-identity python3-twisted python3-twisted-bin
python3-zope.interface uidmap xdelta3
Use 'sudo apt autoremove' to remove them.
Suggested packages:
git-daemon-run | git-daemon-sysvinit git-doc git-el git-email git-gui
gitk gitweb git-cvs git-mediawiki git-svn
The following NEW packages will be installed:
git
0 upgraded, 1 newly installed, 0 to remove and 46 not upgraded.
Need to get 3915 kB of archives.
After this operation, 32.3 MB of additional disk space will be used.
Get:1 http://MS1.clouds.archive.ubuntu.com/ubuntu bionic-updates/main
amd64 git amd64 1:2.17.1-1ubuntu0.7 [3915 kB]
Fetched 3915 kB in 1s (5639 kB/s)
Selecting previously unselected package git.
(Reading database ... 53932 files and directories currently installed.)
Preparing to unpack .../git_1%3a2.17.1-1ubuntu0.7_amd64.deb ...
Unpacking git (1:2.17.1-1ubuntu0.7) ...
Setting up git (1:2.17.1-1ubuntu0.7) ...
Заходимо в бакет, для якого налаштовуватимемо wеbhooks, і натискаємо на шестерню:
Переходимо на вкладку Webhooks та натискаємо Додати:
Заповнюємо поля:
ID — назва веб-хука.
Event – які події передавати. Ми задали передачу всіх подій, які відбуваються під час роботи з файлами (додавання та видалення).
URL - адреса сервера прийому веб-хуків.
Filter prefix/suffix — фільтр, який дозволяє генерувати веб-хуки лише на об'єкти, назви яких відповідають певним правилам. Наприклад, щоб вебхук спрацьовував тільки файли з розширенням .png, в Filter suffix треба написати "png".
В даний момент підтримуються для звернення до сервера прийому веб-хуків тільки порти 80 та 443.
Натиснемо Додати hook і побачимо таке:
Hook додано.
Сервер прийому веб-хуків у логах показує проходження процесу реєстрації хука:
Ping() — роут, що відповідає URL/ping, найпростіша реалізація liveness probe.
Webhook() — основний роут, обробник URL/вебхуку:
підтверджує реєстрацію на сервісі публікації (перехід у функцію SubscriptionConfirmation),
обробляє вебхуки, що приходять (функція Gotrecords).
Функції HmacSha256 та HmacSha256hex — реалізації алгоритмів шифрування HMAC-SHA256 та HMAC-SHA256 з виведенням у вигляді рядка 16-річних чисел для підрахунку сигнатури.
main — головна функція, що обробляє параметри командного рядка та реєструє обробники URL.
Параметри командного рядка, які приймає сервер:
-port — порт, на якому слухатиме сервер.
-address — IP-адреса, яка слухатиме сервер.
-script - Зовнішня програма, яка викликається на кожен хук, що прийшов.
Розглянемо докладніше деякі функції:
//Webhook
func Webhook(w http.ResponseWriter, req *http.Request) {
// Read body
body, err := ioutil.ReadAll(req.Body)
defer req.Body.Close()
if err != nil {
http.Error(w, err.Error(), 500)
return
}
// log request
log.Printf("[%s] incoming HTTP request from %sn", req.Method, req.RemoteAddr)
// check if we got subscription confirmation request
if strings.Contains(string(body),
""Type":"SubscriptionConfirmation"") {
SubscriptionConfirmation(w, req, body)
} else {
GotRecords(w, req, body)
}
}
Ця функція визначає, що надійшло - запит на підтвердження реєстрації або вебхук. Як випливає з документації, у разі підтвердження реєстрації надходить наступна структура Json у запиті Post:
POST http://test.com HTTP/1.1
x-amz-sns-messages-type: SubscriptionConfirmation
content-type: application/json
{
"Timestamp":"2019-12-26T19:29:12+03:00",
"Type":"SubscriptionConfirmation",
"Message":"You have chosen to subscribe to the topic $topic. To confirm the subscription you need to response with calculated signature",
"TopicArn":"mcs2883541269|bucketA|s3:ObjectCreated:Put",
"SignatureVersion":1,
"Token":«RPE5UuG94rGgBH6kHXN9FUPugFxj1hs2aUQc99btJp3E49tA»
}
Відповідно, залежно від запиту, потрібно зрозуміти, як обробляти дані. Я вибрав як індикатор запис "Type":"SubscriptionConfirmation", оскільки вона присутня у запиті на підтвердження підписки і не є у вебхуку. Виходячи з наявності/відсутності цього запису в POST-запиті, подальше виконання програми переходить або в функцію SubscriptionConfirmation, або функцію GotRecords.
Функцію SubscriptionConfirmation детально розглядати не будемо, вона реалізована за принципами, викладеними в документації. Вивчити вихідний код цієї функції можна в git-репозиторії проекту.
Функція GotRecords розбирає запит і для кожного об'єкта Record викликає зовнішній скрипт (ім'я якого було передано в параметрі -script) з параметрами:
delete - якщо у вихідному запиті EventName = ObjectRemoved | DeleteObject
Таким чином, якщо прилетів хук з Post-запитом, як описано вище, і параметр -script=script.sh скрипт буде викликаний наступним чином:
script.sh bucketA some-file-to-bucket copy
Слід розуміти, що даний сервер прийому веб-хуків - це не закінчене production-рішення, а спрощений приклад можливої реалізації.
приклад роботи
Зробимо синхронізацію файлів основного бакета в MCS резервного бакету в AWS. Основний бакет називається myfiles-ash, резервний - myfiles-backup (конфігурація бакета в AWS виходить за межі цієї статті). Відповідно, коли файл кладеться в основний бакет, його копія повинна з'явитися в резервному, коли видаляється з основного - видалятися в резервному.
Працюватимемо з бакетами будемо утилітою awscli, з якою сумісне як хмарне сховище MCS, так і хмарне сховище AWS.
ubuntu@ubuntu-basic-1-2-10gb:~$ sudo apt-get install awscli
Reading package lists... Done
Building dependency tree
Reading state information... Done
After this operation, 34.4 MB of additional disk space will be used.
Unpacking awscli (1.14.44-1ubuntu1) ...
Setting up awscli (1.14.44-1ubuntu1) ...
Конфігуруємо доступ до API S3 MCS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws configure --profile mcs
AWS Access Key ID [None]: hdywEPtuuJTExxxxxxxxxxxxxx
AWS Secret Access Key [None]: hDz3SgxKwXoxxxxxxxxxxxxxxxxxx
Default region name [None]:
Default output format [None]:
Конфігуруємо доступ до API S3 AWS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws configure --profile aws
AWS Access Key ID [None]: AKIAJXXXXXXXXXXXX
AWS Secret Access Key [None]: dfuerphOLQwu0CreP5Z8l5fuXXXXXXXXXXXXXXXX
Default region name [None]:
Default output format [None]:
Перевіримо доступи:
До AWS:
ubuntu@ubuntu-basic-1-2-10gb:~$ aws s3 ls --profile aws
2020-07-06 08:44:11 myfiles-backup
Для MCS, під час роботи команди треба додавати -endpoint-url:
Перевіряємо, як це спрацює. Через веб-інтерфейс MCS додамо файл test.txt в бакет myfiles-ash. У логах консолі видно, що був зроблений запит на сервер вебхуків:
2020/07/06 09:43:08 [POST] incoming HTTP request from
95.163.216.92:56612
download: s3://myfiles-ash/test.txt to ../../../tmp/myfiles-ash/test.txt
upload: ../../../tmp/myfiles-ash/test.txt to
s3://myfiles-backup/test.txt
Тепер через веб-інтерфейс видалимо файл із бакета myfiles-ash.
Логи сервера:
2020/07/06 09:44:46 [POST] incoming HTTP request from
95.163.216.92:58224
delete: s3://myfiles-backup/test.txt
Вміст бакета:
ubuntu@ubuntu-basic-1-2-10gb:~/s3-webhook$ aws s3 --profile aws ls
myfiles-backup
ubuntu@ubuntu-basic-1-2-10gb:~$
Файл видалено, завдання вирішено.
Висновок та ToDo
Весь код, який використовується у цій статті, лежить у моєму репозиторії. Там же лежать приклади скриптів та приклади підрахунку сигнатур для реєстрації веб-хуків.
Цей код — не більше, ніж приклад того, як можна використовувати S3-вебхуки у своїй діяльності. Як я сказав на початку, якщо планувати використання такого сервера в продуктивності, необхідно як мінімум переписувати сервер під асинхронну роботу: вебхуки, що приходять, реєструвати в черзі (RabbitMQ або NATS), а звідти їх розбирати і обробляти worker-додатками. Інакше при масованому приході вебхуків можна зіткнутися з нестачею ресурсів сервера для виконання завдань. Наявність черг дозволяє розносити сервер і workers, а також вирішувати питання з повтором завдань у разі збоїв. Також бажано змінювати логування більш докладне і стандартизоване.