Moore-on kívül ki más fogalmazta meg a számítási rendszerek méretezésének törvényeit?

Két szabályról beszélünk, amelyek szintén kezdik elveszíteni a jelentőségét.

Moore-on kívül ki más fogalmazta meg a számítási rendszerek méretezésének törvényeit?
/ fotó Laura Ockel Unsplash

Moore törvényét több mint ötven éve fogalmazták meg. Ez idő alatt többnyire tisztességes maradt. Még ma is, amikor az egyik technológiai folyamatról a másikra lépünk, a tranzisztorok sűrűsége egy chipen körülbelül a duplájára nő. De van egy probléma - az új technológiai folyamatok fejlődési sebessége lelassul.

Például az Intel hosszú időre késleltette 10 nm-es Ice Lake processzorainak tömeggyártását. Míg az IT-óriás a jövő hónapban megkezdi az eszközök szállítását, az architektúra bejelentése kb két és fél évekkel ezelőtt. Szintén tavaly augusztusban az integrált áramköröket gyártó GlobalFoundries, amely az AMD-vel dolgozott együtt, leállt a fejlődés 7 nm-es műszaki folyamatok (a döntés okairól bővebben mi blogunkban beszéltünk róla Habrén).

Újságírók и nagy informatikai cégek vezetői Évek teltek el azóta, hogy megjósolják a Moore-törvény halálát. Még maga Gordon is egyszer kijelentettékhogy az általa megfogalmazott szabály hatályát veszti. Azonban nem a Moore-törvény az egyetlen minta, amely elveszti jelentőségét, és amelyet a processzorgyártók követnek.

Dennard skálázási törvénye

1974-ben fogalmazta meg Robert Dennard mérnök és a dinamikus memória DRAM fejlesztője az IBM munkatársaival együtt. A szabály így hangzik:

"A tranzisztor méretének csökkentésével és a processzor órajelének növelésével könnyedén növelhetjük a teljesítményét."

Dennard szabálya a vezetékszélesség csökkentését (műszaki folyamat) határozta meg a mikroprocesszor-technológiai ipar fejlődésének fő mutatójaként. De a Dennard-féle skálázási törvény 2006 körül leállt. A chipekben lévő tranzisztorok száma folyamatosan növekszik, de ez a tény nem ad jelentős növekedést az eszköz teljesítményéhez.

Például a TSMC (félvezetőgyártó) képviselői azt mondják, hogy a 7 nm-ről 5 nm-es folyamattechnológiára való átállás növekedni fog a processzor órajele csak 15%-kal.

A frekvencia növekedés lassulásának oka az áramszivárgás, amit Dennard nem vett figyelembe a 70-es évek végén. A tranzisztor méretének csökkenésével és a frekvencia növekedésével az áram elkezdi jobban felmelegíteni a mikroáramkört, ami károsíthatja azt. Ezért a gyártóknak ki kell egyensúlyozniuk a processzor által lefoglalt teljesítményt. Ennek eredményeként 2006 óta a sorozatgyártású chipek frekvenciáját 4–5 GHz-re állítják.

Moore-on kívül ki más fogalmazta meg a számítási rendszerek méretezésének törvényeit?
/ fotó Jason Leung Unsplash

Ma a mérnökök olyan új technológiákon dolgoznak, amelyek megoldják a problémát és növelik a mikroáramkörök teljesítményét. Például szakemberek Ausztráliából fejleszteni egy fém-levegő tranzisztor, amelynek frekvenciája több száz gigahertz. A tranzisztor két fémelektródából áll, amelyek lefolyóként és forrásként működnek, és 35 nm távolságban helyezkednek el. A jelenségnek köszönhetően elektronokat cserélnek egymással terepi kibocsátás.

A fejlesztők szerint készülékük lehetővé teszi majd a technológiai folyamatok visszaszorítását célzó „üldözés” leállítását, és a nagy teljesítményű 3D-s struktúrák építésére koncentrálva, nagyszámú tranzisztorral egy chipen.

Kumi szabály

Övé megfogalmazva 2011-ben Jonathan Koomey stanfordi professzor. A Microsoft, az Intel és a Carnegie Mellon Egyetem munkatársaival együtt ő elemezte az információkat a számítástechnikai rendszerek energiafogyasztásáról az 1946-ban épített ENIAC számítógéptől kezdve. Ennek eredményeként Kumi a következő következtetésre jutott:

„Az egy kilowattnyi energiára jutó számítási mennyiség statikus terhelés mellett minden másfél évben megduplázódik.”

Ugyanakkor megjegyezte, hogy a számítógépek energiafogyasztása is nőtt az elmúlt években.

2015-ben Kumi visszatért munkájához, és új adatokkal egészítette ki a tanulmányt. Úgy találta, hogy az általa leírt tendencia lelassult. Az egy kilowattnyi energiára jutó chip átlagos teljesítménye nagyjából háromévente duplázódni kezdett. A trend megváltozott a chipek hűtésével kapcsolatos nehézségek miatt (4 oldal), mivel a tranzisztor méretének csökkenésével a hő eltávolítása egyre nehezebbé válik.

Moore-on kívül ki más fogalmazta meg a számítási rendszerek méretezésének törvényeit?
/ fotó Derek Thomas CC BY-ND

Jelenleg új chiphűtési technológiák fejlesztése folyik, de tömeges bevezetésükről egyelőre szó sincs. Például egy New York-i egyetem fejlesztői javasolták használatához lézeres 3D nyomtatás vékony hővezető titán, ón és ezüst réteg felviteléhez a kristályra. Egy ilyen anyag hővezető képessége 7-szer jobb, mint a többi termikus felületé (hőpaszta és polimerek).

Minden tényező ellenére Kumi szerint, az elméleti energiahatár még messze van. Richard Feynman fizikus kutatására hivatkozik, aki 1985-ben megjegyezte, hogy a processzorok energiahatékonysága 100 milliárdszorosára nő. 2011-ben ez a szám mindössze 40 ezerszeresére nőtt.

Az IT-ipar hozzászokott a számítási teljesítmény gyors növekedéséhez, ezért a mérnökök a Moore-törvény kiterjesztésének és a Coomey- és Dennard-szabályok által támasztott kihívások leküzdésének módjait keresik. A cégek és kutatóintézetek elsősorban a hagyományos tranzisztor- és szilíciumtechnológiák pótlását keresik. Néhány lehetséges alternatíváról legközelebb beszélünk.

Amiről a céges blogban írunk:

A VMware EMPOWER 2019-es jelentéseink a Habréról:

Forrás: will.com

Hozzászólás