Будівництво центрів обробки даних вважається однією з галузей, що найбільш динамічно розвиваються. Прогрес у цій галузі колосальний, але чи найближчим часом з'являться на ринку якісь проривні технологічні рішення – велике питання. Сьогодні ми спробуємо розглянути головні інноваційні тенденції розвитку світового ЦОДобудування, щоб відповісти на нього.
Курс на Hyperscale
Розвиток інформаційних технологій призвело до необхідності будувати величезні центри обробки даних. В основному гіпермасштабована інфраструктура потрібна постачальникам хмарних послуг та соціальним мережам: Amazon, Microsoft, IBM, Google та іншим великим гравцям. У квітні 2017 року у світі
Всі дата-центри, що гіпермасштабуються, відносяться до корпоративних і місця в стійках не здають. Їх використовують для створення публічних хмар, пов'язаних з інтернетом речей та технологіями штучного інтелекту сервісів, а також в інших нішах, де потрібна обробка величезних обсягів даних. Власники активно експериментують із збільшенням щільності потужності на стійку, безкорпусними серверами, рідинним охолодженням, підвищенням температури в машинних залах та різноманітними спеціалізованими рішеннями. З урахуванням збільшення популярності хмарних послуг, Hyperscale у найближчому майбутньому стане основним драйвером зростання галузі: тут можна очікувати появи цікавих технологічних рішень від провідних виробників ІТ-обладнання та інженерних систем.
Граничні обчислення
Інша помітна тенденція прямо протилежна: останніми роками будується величезна кількість мікро-ЦОД. За прогнозами Research and Markets, цей ринок
Битва за PUE
Великі центри обробки даних споживають величезну кількість електроенергії та виділяють тепло, яке необхідно якось утилізувати. Перед традиційних систем охолодження припадає до 40 % енергоспоживання об'єкта, й у боротьбі зниження енерговитрат головним ворогом вважаються компресори холодильних машин. Набирають популярність рішення, що дозволяють повністю або частково відмовитися від їх використання, з т.з. фрикулінгом. У класичній схемі застосовуються чилерні системи з водою або водними розчинами багатоатомних спиртів (гліколей) як теплоносій. У холодну пору року компресорно-конденсаторний блок чиллера не включається, що суттєво знижує енерговитрати. Цікавіші рішення засновані на двоконтурній схемі повітря-повітря з роторними теплообмінниками та секцією адіабатичного охолодження або без неї. Ведуться експерименти з прямим охолодженням зовнішнім повітрям, але ці рішення важко назвати інноваційними. Як і класичні системи, вони передбачають повітряне охолодження ІТ-обладнання, і технологічна межа ефективності такої схеми вже практично досягнута.
Подальше зниження PUE (співвідношення загального енергоспоживання до енергоспоживання ІТ-обладнання) йтиме за рахунок схем рідинного охолодження, що набирають популярність. Тут варто згадати запущений корпорацією Microsoft
При контактному охолодженні обладнання встановлюють спеціальні теплозйомники, всередині яких циркулює рідина. Системи занурювального охолодження використовують діелектричне робоче тіло (зазвичай мінеральне масло) і можуть бути виконані або у вигляді загального герметичного контейнера або у вигляді індивідуальних корпусів для обчислювальних модулів. Киплячі (двофазні) системи на перший погляд схожі на занурювальні. У них також застосовують діелектричні рідини, що контактують з електронікою, але є і принципова відмінність – робоче тіло починає кипіти при температурах близько 34 °C (або трохи вище). З курсу фізики ми знаємо, що йде з поглинанням енергії, температура перестає зростати і за подальшому нагріванні рідина випаровується, т. е. відбувається фазовий перехід. У верхній частині герметичного контейнера пари стикаються з радіатором і конденсуються, а краплі повертаються у загальний резервуар. Системи рідинного охолодження дозволяють досягти фантастичних значень PUE (близько 1,03), але потребують серйозних модифікацій обчислювального обладнання та кооперації виробників. Сьогодні вони вважаються найбільш інноваційними та перспективними.
Підсумки
Для створення сучасних дата-центрів вигадали безліч цікавих технологічних підходів. Виробники пропонують інтегровані гіперконвергентні рішення, будуються програмно-визначені мережі, і навіть самі ЦОД стають програмно-визначеними. Для підвищення ефективності об'єктів встановлюють не тільки інноваційні системи охолодження, а й апаратно-програмні рішення класу DCIM, які дозволяють оптимізувати роботу інженерної інфраструктури на основі даних із безлічі датчиків. Деякі інновації не виправдовують покладених на них надій. Модульні контейнерні рішення, наприклад, не змогли замінити традиційні дата-центри з бетону або металоконструкцій, що швидко зводяться, хоча активно використовуються там, де обчислювальні потужності потрібно розгорнути оперативно. При цьому традиційні ЦОД самі стають модульними, але зовсім на іншому рівні. Прогрес у галузі йде дуже швидко, хоч і без технологічних стрибків – згадані інновації вперше з'явилися на ринку кілька років тому. 2019 рік у цьому сенсі не стане винятком та явних проривів не принесе. В епоху цифри навіть найфантастичніший винахід швидко стає звичайним технічним рішенням.
Джерело: habr.com