Публикувани са резултатите от тестовете за производителност на файловата система Reiser5

Публикувани са резултатите от тестовете за производителност на проекта Reiser5, който разработва значително преработена версия на файловата система Reiser4 с поддръжка за логически томове, които имат „паралелно мащабиране“, което, за разлика от традиционния RAID, предполага активното участие на файловата система при разпределяне на данни между съставните устройства на логическия том. От гледна точка на администратора, съществената разлика от RAID е, че компонентите на логически том с паралелен мащаб са форматирани блокови устройства.

Представените резултати от теста оценяват производителността на обичайните файлови операции, като запис на файл в логически том, четене на файл от логически том, съставен от променлив брой твърдотелни устройства. Изпълнението на операции върху логически томове, като добавяне на устройство към логически том, премахване на устройство от логически том, нулиране на данни от прокси дискове и мигриране на данни от обикновен (не специален) файл към определено устройство, също беше измерено.

За сглобяване на обемите са използвани твърдотелни дискове (SSD) в количество от 4 копия. Скоростта на операция на логически том се определя като съотношението на количеството заето пространство на целия логически том към времето, необходимо за завършване на операцията, включително пълна синхронизация с устройствата.

Скоростта на всяка операция (с изключение на изтриване на данни от прокси диск на том, съставен от малък брой устройства) е по-висока от скоростта на копиране на данни от едно устройство на друго. В същото време, с увеличаване на броя на устройствата, от които е съставен обемът, се увеличава скоростта на операциите. Изключение прави операцията за мигриране на файлове, чиято скорост асимптотично се доближава (отгоре) до скоростта на запис на целевото устройство. Последователен достъп на ниско ниво: Четене на устройството, M/s Запис, M/s DEV1 470 390 DEV2 530 420 Последователно четене/запис на голям файл (M/s): Брой дискове в тома Запис Четене 1 (DEV1) 380 460 1 ( DEV2) 410 518 2 (DEV1+DEV2) 695 744 3 (DEV1+DEV2+DEV3) 890 970 4 (DEV1+DEV2+DEV3+DEV4) 950 1100 Серийно копиране на данни от/на форматирано устройство От устройство Към устройство Скорост (M/s) DEV1 DEV2 260 DEV2 DEV1 255 Добавяне на устройство към логически том: Обем Устройство за добавяне Скорост (M/s) DEV1 DEV2 284 DEV1+DEV2 DEV3 457 DEV1+DEV2+DEV3 DEV4 574 Премахване на устройство от логически том: Обем Устройство за премахване Скорост (M/s) DEV1+DEV2+DEV3+DEV4 DEV4 890 DEV1+DEV2+DEV3 DEV3 606 DEV1+DEV2 DEV2 336 Нулиране на данни от прокси диск: Обем Прокси диск Скорост ​​(M/s) DEV1 DEV4 228 DEV1+DEV2 DEV4 244 DEV1+DEV2+ DEV3 DEV4 290 DEV1 RAM0 283 DEV1+DEV2 RAM0 301 DEV1+DEV2+DEV3 RAM0 374 DEV1+DEV2+DEV3+DEV4 RAM0 427 Целеви обем за мигриране на файлове De заместник Скорост ​​(M/s) DEV1+DEV2+DEV3+DEV4 DEV1 387 DEV1+DEV2 +DEV3 DEV1 403 DEV1+DEV2 DEV1 427

Отбелязва се, че производителността може да бъде допълнително подобрена, ако процедурата за издаване на I/O заявки е паралелна между компонентите на логическия обем (в момента, за простота, това се прави в цикъл с една нишка). И също така, ако четете само тези данни, които са обект на движение по време на ребалансиране (сега, за простота, всички данни се четат). Теоретичната граница за скоростта на добавяне/премахване на второ устройство в системи с паралелно мащабиране е удвоената скорост на копиране от първия диск на втория (съответно от втория на първия). Сега скоростта на добавяне и премахване на втори диск е съответно 1.1 и 1.3 скорости на копиране.

Освен това беше обявен O(1) дефрагментатор, който ще обработва всички компоненти на логически том (включително прокси диска) паралелно, т.е. за време, което не надвишава времето за обработка на най-големия компонент поотделно.

Източник: opennet.ru

Добавяне на нов коментар