Kto jeszcze poza Moore'em sformułował prawa skalowania systemów komputerowych?

Mówimy o dwóch zasadach, które również zaczynają tracić na znaczeniu.

Kto jeszcze poza Moore'em sformułował prawa skalowania systemów komputerowych?
/ zdjęcie Laurę Ockel Unsplash

Prawo Moore’a zostało sformułowane ponad pięćdziesiąt lat temu. Przez większość czasu zachowywał się uczciwie. Nawet dzisiaj, przechodząc z jednego procesu technologicznego do drugiego, gęstość tranzystorów w chipie w przybliżeniu podwaja swoją wielkość. Jest jednak problem – tempo rozwoju nowych procesów technologicznych spada.

Na przykład Intel przez długi czas opóźniał masową produkcję swoich procesorów Ice Lake w procesie technologicznym 10 nm. Podczas gdy gigant IT rozpocznie wysyłkę urządzeń w przyszłym miesiącu, ogłoszenie architektury miało miejsce ok dwa i pół Lata temu. Również w sierpniu ubiegłego roku producent układów scalonych GlobalFoundries, który współpracował z AMD, zatrzymał rozwój Procesy techniczne 7 nm (więcej o powodach tej decyzji czytamy omawialiśmy na naszym blogu na Habré).

Dziennikarze и szefowie dużych firm informatycznych Minęły lata, odkąd przewidywano śmierć prawa Moore'a. Nawet samego Gordona raz powiedzianeże sformułowana przez niego zasada przestanie obowiązywać. Jednak prawo Moore'a nie jest jedynym wzorcem, który traci na znaczeniu i którym podążają producenci procesorów.

Prawo skalowania Dennarda

Został on sformułowany w 1974 roku przez inżyniera i twórcę pamięci dynamicznej DRAM Roberta Dennarda wraz z kolegami z IBM. Zasada wygląda następująco:

„Zmniejszając rozmiar tranzystora i zwiększając taktowanie procesora, możemy łatwo zwiększyć jego wydajność.”

Reguła Dennarda uznała zmniejszenie szerokości przewodu (proces techniczny) za główny wskaźnik postępu w przemyśle technologii mikroprocesorowej. Ale prawo skalowania Dennarda przestało działać około 2006 roku. Liczba tranzystorów w chipach stale rośnie, ale to fakt nie daje znaczącego wzrostu na wydajność urządzenia.

Przykładowo przedstawiciele TSMC (producenta półprzewodników) twierdzą, że przejście z technologii procesowej 7 nm na 5 nm величит prędkość zegara procesora tylko o 15%.

Przyczyną spowolnienia wzrostu częstotliwości jest upływ prądu, którego Dennard nie wziął pod uwagę pod koniec lat 70-tych. Wraz ze zmniejszaniem się rozmiaru tranzystora i wzrostem częstotliwości prąd zaczyna bardziej nagrzewać mikroukład, co może go uszkodzić. Dlatego producenci muszą zrównoważyć moc przydzielaną przez procesor. W rezultacie od 2006 roku częstotliwość produkowanych masowo chipów została ustalona na 4–5 GHz.

Kto jeszcze poza Moore'em sformułował prawa skalowania systemów komputerowych?
/ zdjęcie Jasona Leunga Unsplash

Dziś inżynierowie pracują nad nowymi technologiami, które rozwiążą problem i zwiększą wydajność mikroukładów. Na przykład specjaliści z Australii rozwijać tranzystor metal-powietrze o częstotliwości kilkuset gigaherców. Tranzystor składa się z dwóch metalowych elektrod, które pełnią funkcję drenu i źródła i są umieszczone w odległości 35 nm. W wyniku tego zjawiska wymieniają między sobą elektrony emisja polowa.

Według twórców ich urządzenie pozwoli zaprzestać „pogoni” za redukcją procesów technologicznych i skoncentrować się na budowaniu wysokowydajnych struktur 3D z dużą liczbą tranzystorów w chipie.

Zasada Kumi

Jego sformularz w 2011 roku przez profesora Stanforda Jonathana Koomeya. Wraz z kolegami z Microsoft, Intel i Carnegie Mellon University on przeanalizował informacje w sprawie zużycia energii przez systemy komputerowe, począwszy od komputera ENIAC zbudowanego w 1946 r. W rezultacie Kumi doszedł do następującego wniosku:

„Ilość obliczeń na kilowat energii pod obciążeniem statycznym podwaja się co półtora roku”.

Jednocześnie zauważył, że na przestrzeni ostatnich lat wzrosło także zużycie energii przez komputery.

W 2015 roku Kumi zwrócony do swojej pracy i uzupełnił badanie o nowe dane. Stwierdził, że opisywany przez niego trend uległ spowolnieniu. Średnia wydajność chipów na kilowat energii zaczęła się podwajać mniej więcej co trzy lata. Trend uległ zmianie ze względu na trudności związane z chłodzeniem chipów (strona 4), ponieważ wraz ze zmniejszaniem się rozmiaru tranzystora usuwanie ciepła staje się trudniejsze.

Kto jeszcze poza Moore'em sformułował prawa skalowania systemów komputerowych?
/ zdjęcie Darek Tomasz CC BY-ND

Obecnie opracowywane są nowe technologie chłodzenia chipów, ale nie ma jeszcze mowy o ich masowym wdrożeniu. Zaproponowali na przykład programiści z uniwersytetu w Nowym Jorku używać laserowy druk 3D polegający na nałożeniu na kryształ cienkiej przewodzącej ciepło warstwy tytanu, cyny i srebra. Przewodność cieplna takiego materiału jest 7 razy lepsza niż innych interfejsów termicznych (pasta termoprzewodząca i polimery).

Pomimo wszystkich czynników zdaniem Kumiegoteoretyczna granica energii jest wciąż odległa. Przytacza badania fizyka Richarda Feynmana, który w 1985 roku zauważył, że efektywność energetyczna procesorów wzrośnie 100 miliardów razy. W 2011 roku liczba ta wzrosła zaledwie 40 tysięcy razy.

Branża IT jest przyzwyczajona do szybkiego wzrostu mocy obliczeniowej, dlatego inżynierowie szukają sposobów na rozszerzenie prawa Moore'a i pokonanie wyzwań, jakie nakładają reguły Coomey'a i Dennarda. W szczególności firmy i instytuty badawcze poszukują zamienników dla tradycyjnych technologii tranzystorowych i krzemowych. Następnym razem porozmawiamy o niektórych możliwych alternatywach.

O czym piszemy na firmowym blogu:

Nasze relacje z VMware EMPOWER 2019 na Habré:

Źródło: www.habr.com

Dodaj komentarz