Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Współczesna historia konfrontacji Intela i AMD na rynku procesorów sięga drugiej połowy lat 90-tych. Era wielkich przemian i wejścia do głównego nurtu, kiedy Intel Pentium pozycjonowano jako rozwiązanie uniwersalne, a Intel Inside stał się niemal najbardziej rozpoznawalnym hasłem na świecie, naznaczona była jasnymi kartami w historii nie tylko błękitu, ale także czerwony – począwszy od generacji K6, AMD niestrudzenie konkurowało z Intelem w wielu segmentach rynku. Jednak to wydarzenia z nieco późniejszego etapu – pierwszej połowy lat XNUMX – odegrały kluczową rolę w powstaniu legendarnej architektury Core, która do dziś stanowi podstawę linii procesorów Intela.

Trochę historii, początków i rewolucji

Początek XXI wieku w dużej mierze wiąże się z kilkoma etapami rozwoju procesorów - wyścigiem o upragnioną częstotliwość 2000 GHz, pojawieniem się pierwszego dwurdzeniowego procesora i zaciętą walką o prymat w segmencie masowych komputerów stacjonarnych. Po tym jak Pentium stało się beznadziejnie przestarzałe i na rynek wszedł Athlon 1 X64, Intel wprowadził na rynek procesory generacji Core, co ostatecznie stało się punktem zwrotnym w rozwoju branży.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Pierwsze procesory Core 2 Duo zostały ogłoszone pod koniec lipca 2006 roku, czyli ponad rok po premierze Athlona 64 X2. W swoich pracach nad nową generacją Intel kierował się przede wszystkim zagadnieniami optymalizacji architektury, osiągając najwyższe wskaźniki efektywności energetycznej już w pierwszych generacjach modeli opartych na architekturze Core o kryptonimie Conroe – były one półtorakrotnie lepsze od Pentium 4 i z deklarowanym pakietem termicznym o mocy 65 W, stalowy, być może najbardziej energooszczędne procesory na rynku w tamtym czasie. Działając w ramach nadrobienia zaległości (co zdarzało się rzadko), Intel zaimplementował w nowej generacji obsługę operacji 64-bitowych z architekturą EM64T, nowy zestaw instrukcji SSSE3, a także rozbudowany pakiet technologii wirtualizacyjnych opartych na x86.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesorowy Core 2 Duo

Ponadto jedną z kluczowych cech procesorów Conroe była duża pamięć podręczna L2, której wpływ na ogólną wydajność procesorów był już wtedy bardzo zauważalny. Decydując się na zróżnicowanie segmentów procesorów, Intel wyłączył połowę 4 MB pamięci podręcznej L2 dla młodszych przedstawicieli linii (E6300 i E6400), zaznaczając w ten sposób segment początkowy. Jednak cechy technologiczne rdzenia (niska emisja ciepła i wysoka wydajność energetyczna związana z zastosowaniem lutu ołowiowego) pozwoliły zaawansowanym użytkownikom na osiągnięcie niewiarygodnie wysokich częstotliwości na zaawansowanych rozwiązaniach logiki systemowej - wysokiej jakości płyty główne umożliwiły podkręcenie magistrali FSB , zwiększając częstotliwość młodszego procesora do 3 GHz i więcej (zapewniając łączny wzrost o 60%), dzięki czemu udane egzemplarze E6400 mogły konkurować ze swoimi starszymi braćmi E6600 i E6700, aczkolwiek kosztem znacznych zagrożeń temperaturowych . Jednak nawet skromne podkręcanie pozwoliło osiągnąć poważne wyniki - w benchmarkach starsze procesory z łatwością wyparły zaawansowanego Athlona 64 X2, wyznaczając pozycję nowych liderów i ulubieńców publiczności.

Oprócz tego Intel zapoczątkował prawdziwą rewolucję – czterordzeniowe procesory z rodziny Kentsfield z prefiksem Q, zbudowane na tych samych 65 nanometrach, ale wykorzystujące strukturę dwóch chipów Core 2 Duo na jednym podłożu. Osiągnąwszy najwyższą możliwą efektywność energetyczną (platforma zużywała tyle samo, co dwa kryształy użyte osobno), Intel po raz pierwszy pokazał, jak potężny może być system z czterema wątkami – w zastosowaniach multimedialnych, archiwizacji i ciężkich grach aktywnie wykorzystujących obciążenie zrównoleglenie wielu wątków (w 2007 roku były to rewelacyjny Crysis i nie mniej kultowe Gears of War), różnica w wydajności przy konfiguracji jednoprocesorowej mogła sięgać nawet 100%, co było niesamowitą zaletą dla każdego nabywcy system oparty na procesorze Core 2 Quad.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Klejenie dwóch C2D na jednym podłożu - Core 2 Quad

Podobnie jak w przypadku linii Pentium, najszybsze procesory oznaczono jako Extreme z przedrostkiem QX i były dostępne dla entuzjastów i konstruktorów systemów OEM po znacznie wyższej cenie. Koroną generacji 65 nm był QX6850 o częstotliwości 3 GHz i szybkiej magistrali FSB pracującej na częstotliwości 1333 MHz. Procesor ten trafił do sprzedaży za 999 dolarów.

Oczywiście tak spektakularnego sukcesu nie mogło nie spotkać konkurencji ze strony AMD, jednak ówczesny czerwony gigant nie przestawił się jeszcze na produkcję procesorów czterordzeniowych, więc przeciwstawiając się nowym produktom Intela, eksperymentalna platforma Quad FX , opracowany we współpracy z firmą NVidia, został zaprezentowany i otrzymał tylko jeden seryjny model płyty głównej ASUS L1N64, przeznaczonej do współpracy z dwoma procesorami Athlon FX X2 i Opteron.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Asusa L1N64

Platforma okazała się ciekawą innowacją techniczną w głównym nurcie, jednak mnóstwo konwencji technicznych, ogromny pobór mocy i przeciętne osiągi (w porównaniu z modelem QX6700) nie pozwoliły platformie skutecznie konkurować o wyższy segment rynku - Intel zyskał przewagę, a czterordzeniowe procesory Phenom FX pojawiły się na czerwono dopiero w listopadzie 2007 roku, kiedy konkurent był gotowy na kolejny krok.

Linia Penryn, będąca w istocie tzw. die-shrink (zmniejszeniem rozmiaru matrycy) chipów 65 nm z 2007 roku, zadebiutowała na rynku 20 stycznia 2008 roku wraz z procesorami Wolfdale – zaledwie 2 miesiące po premierze AMD Phenom FX . Przejście na technologię procesową 45 nm z wykorzystaniem najnowszych dielektryków i materiałów produkcyjnych pozwoliło nam jeszcze bardziej poszerzyć horyzonty architektury Core. Procesory otrzymały wsparcie dla SSE4.1, obsługę nowych funkcji oszczędzania energii (takich jak Deep Power Down, które w mobilnych wersjach procesorów niemal zeruje pobór mocy w stanie hibernacji), a także stały się znacznie chłodniejsze - w niektórych testach różnica może osiągnąć 10 stopni w porównaniu do poprzedniej serii Conroe. Zwiększając częstotliwość i wydajność, a także otrzymując dodatkową pamięć podręczną L2 (w przypadku Core 2 Duo jej objętość wzrosła do 6 MB), nowe procesory Core zapewniły sobie czołowe pozycje w benchmarkach i torowały drogę do dalszej rundy zaciętej rywalizacji i początek nowej ery. Epoki niespotykanych sukcesów, epoki stagnacji i spokoju. Era procesorów Core i.

Jeden krok do przodu i zero do tyłu. Core i7 pierwszej generacji

Już w listopadzie 2008 roku Intel wprowadził nową architekturę Nehalem, co oznaczało wypuszczenie pierwszych procesorów z serii Core i, która jest dziś bardzo znana każdemu użytkownikowi. W odróżnieniu od dobrze znanego Core 2 Duo, architektura Nehalem początkowo przewidywała cztery rdzenie fizyczne w jednym chipie, a także szereg cech architektonicznych znanych nam z technicznych nowinek AMD - zintegrowany kontroler pamięci, współdzieloną pamięć podręczną trzeciego poziomu oraz interfejs QPI, który zastępuje HyperTransport.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-970

Po przeniesieniu kontrolera pamięci pod pokrywę procesora Intel był zmuszony przebudować całą strukturę pamięci podręcznej, zmniejszając rozmiar pamięci podręcznej L2 na rzecz ujednoliconej pamięci podręcznej L3 o wielkości 8 MB. Jednak ten krok pozwolił znacznie zmniejszyć liczbę żądań, a zmniejszenie pamięci podręcznej L2 do 256 KB na rdzeń okazało się skutecznym rozwiązaniem pod względem szybkości pracy przy obliczeniach wielowątkowych, gdzie większość obciążenia adresowany był do wspólnej pamięci podręcznej L3.
Oprócz restrukturyzacji pamięci podręcznej Intel zrobił krok do przodu dzięki Nehalem, zapewniając procesorom obsługę DDR3 na częstotliwościach 800 i 1066 MHz (jednak pierwsze standardy były dalekie od ograniczania dla tych procesorów) i pozbywając się obsługi DDR2, w przeciwieństwie do AMD, które zastosowało zasadę kompatybilności wstecznej w procesorach Phenom II, dostępnych zarówno na gniazdach AM2+, jak i nowych AM3. Sam kontroler pamięci w Nehalem mógł pracować w jednym z trzech trybów z jednym, dwoma lub trzema kanałami pamięci odpowiednio na magistrali 64, 128 lub 192-bitowej, dzięki czemu producenci płyt głównych umieścili na PCB aż 6 złączy pamięci DIMM DDR3 . Jeśli chodzi o interfejs QPI, zastąpił on przestarzałą już magistralę FSB, zwiększając co najmniej dwukrotnie przepustowość platformy – co było szczególnie dobrym rozwiązaniem z punktu widzenia zwiększenia wymagań dotyczących częstotliwości pamięci.

Raczej zapomniany Hyper-Threading powrócił do Nehalem, wyposażając cztery potężne rdzenie fizyczne w osiem wirtualnych wątków i dając początek „właśnie SMT”. W rzeczywistości HT został zaimplementowany już w Pentium, ale od tego czasu Intel aż do teraz o tym nie myślał.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Technologia Hyper-Threading

Kolejną cechą techniczną Core i pierwszej generacji była natywna częstotliwość pracy kontrolerów pamięci podręcznej i pamięci, których konfiguracja wiązała się ze zmianą niezbędnych parametrów w BIOS-ie - Intel zalecał podwojenie częstotliwości pamięci dla optymalnej pracy, ale nawet taki drobiazg dla części użytkowników mógł stanowić problem, szczególnie przy podkręcaniu magistrali QPI (czyli magistrali BCLK), gdyż dopiero niesamowicie drogi flagowiec z linii i7-965 z tagiem Extreme Edition otrzymał odblokowany mnożnik, podczas gdy 940 i 920 miały stałą częstotliwość z mnożnikiem odpowiednio 22 i 20.

Nehalem stał się większy zarówno fizycznie (rozmiar procesora nieznacznie wzrósł w porównaniu do Core 2 Duo ze względu na przeniesienie kontrolera pamięci pod pokrywę), jak i wirtualnie.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Porównanie rozmiarów procesorów

Dzięki „inteligentnemu” monitorowaniu systemu zasilania sterownik PCU (Power-Control Unit) wraz z trybem Turbo umożliwił uzyskanie nieco większej częstotliwości (a co za tym idzie wydajności) nawet bez ręcznej regulacji, ograniczonej jedynie do wartości z tabliczki znamionowej 130 W. To prawda, że ​​​​w wielu przypadkach limit ten można nieco przesunąć, zmieniając ustawienia BIOS-u, uzyskując dodatkowe 100-200 MHz.

W sumie architektura Nehalem miała wiele do zaoferowania - znaczny wzrost mocy w porównaniu do Core 2 Duo, wielowątkową wydajność, mocne rdzenie i obsługę najnowszych standardów.

Z pierwszą generacją i7 wiąże się jedno nieporozumienie, a mianowicie obecność dwóch gniazd LGA1366 i LGA1156 z tym samym (na pierwszy rzut oka) Core i7. Jednak te dwa zestawy logiki nie wynikały z kaprysu chciwej korporacji, ale z przejścia na architekturę Lynnfield, kolejnego kroku w rozwoju linii procesorów Core i.

Jeśli chodzi o konkurencję ze strony AMD, czerwonemu gigantowi nie spieszyło się z przejściem na nową, rewolucyjną architekturę, śpiesząc się, aby dotrzymać tempa Intelowi. Wykorzystując stary, dobry K10, firma wypuściła Phenom II, który stał się przejściem na technologię procesową 45 nm Phenoma pierwszej generacji bez żadnych znaczących zmian architektonicznych.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Dzięki zmniejszeniu powierzchni matrycy AMD było w stanie wykorzystać dodatkową przestrzeń, aby pomieścić imponującą pamięć podręczną L3, która swoją strukturą (jak również ogólnym rozmieszczeniem elementów na chipie) z grubsza odpowiada opracowaniom Intela z Nehalemem, ale ma szereg wad wynikających z chęci oszczędności i kompatybilności wstecznej z szybko starzejącą się platformą AM2.

Po naprawieniu niedociągnięć w pracy Cool'n'Quiet, które praktycznie nie funkcjonowały w pierwszej generacji Phenoma, AMD wypuściło dwie rewizje Phenoma II, z których pierwsza skierowana była do użytkowników na starszych chipsetach generacji AM2, a drugi - dla zaktualizowanej platformy AM3 z obsługą pamięci DDR3. To właśnie chęć utrzymania obsługi nowych procesorów na starych płytach głównych zrobiła AMD okrutny żart (co jednak powtórzy się w przyszłości) – ze względu na cechy platformy w postaci powolnego mostka północnego, nowy Phenom II X4 nie mógł działać z oczekiwaną częstotliwością magistrali uncore (kontroler pamięci i pamięć podręczna L3), tracąc nieco więcej wydajności w pierwszej wersji.

Phenom II był jednak przystępny cenowo i na tyle mocny, że wykazywał wyniki na poziomie poprzedniej generacji Intela – czyli Core 2 Quad. Oznaczało to oczywiście tylko tyle, że AMD nie było gotowe na rywalizację z Nehalemem. W ogóle.
A potem przybył Westmere...

Westmere'a. Tańsze od AMD, szybsze od Nehalem

Przewaga Phenoma II, prezentowanego przez czerwonego giganta jako budżetowa alternatywa dla Q9400, sprowadza się do dwóch rzeczy. Pierwszą z nich jest oczywista kompatybilność z platformą AM2, która zyskała wielu fanów niedrogich komputerów wraz z wypuszczeniem na rynek pierwszej generacji Phenoma. Druga to wyśmienita cena, z którą nie jest w stanie konkurować ani drogi i7 9xx, ani tańsze (ale już nieopłacalne) procesory z serii Code 2 Quad. AMD stawiało na dostępność dla jak najszerszego grona użytkowników, okazjonalnych graczy i oszczędnych profesjonalistów, ale Intel miał już plan pokonania wszystkich czerwonych kart chipmakerów jedną ręką.

Jej rdzeniem było Westmere, kolejna inwestycja architektoniczna Nehalem (serca Bloomfield), która sprawdziła się wśród pasjonatów i tych, którzy wolą brać to, co najlepsze. Tym razem Intel porzucił drogie, skomplikowane rozwiązania - nowy zestaw logiki oparty na gnieździe LGA1156 stracił kontroler QPI, otrzymał uproszczone architektonicznie DMI, pozyskał dwukanałowy kontroler pamięci DDR3, a także po raz kolejny przekierował część funkcji w ramach osłona procesora - tym razem stał się kontrolerem PCI.

Pomimo tego, że wizualnie nowe Core i7-8xx i Core i5-750 są identyczne pod względem wielkości z Core 2 Quad, dzięki przejściu na 32 nm, kryształ okazał się jeszcze większy niż Nehalem - poświęcając dodatkowe wyjścia QPI i łącząc blok standardowych portów I/O, inżynierowie Intela zintegrowali kontroler PCI, który zajmuje 25% powierzchni chipa i został zaprojektowany tak, aby zminimalizować opóźnienia w pracy z GPU, ponieważ dodatkowe 16 linii PCI nigdy nie było zbędne.

W Westmere poprawiono także tryb Turbo, zbudowany na zasadzie „więcej rdzeni – mniej częstotliwości”, z której korzystał do tej pory Intel. Zgodnie z logiką inżynierów, w przeszłości nie zawsze osiągano limit 95 W (czyli dokładnie tyle, ile miał zużywać zaktualizowany flagowiec) ze względu na nacisk na podkręcanie wszystkich rdzeni w każdej sytuacji. Zaktualizowany tryb umożliwił wykorzystanie „inteligentnego” podkręcania, dozując częstotliwości w taki sposób, że gdy używany był jeden rdzeń, pozostałe były wyłączane, uwalniając dodatkową moc do podkręcania zaangażowanego rdzenia. W tak prosty sposób okazało się, że przy podkręcaniu jednego rdzenia użytkownik osiągał maksymalną częstotliwość taktowania, przy podkręcaniu dwóch była ona niższa, a przy podkręcaniu wszystkich czterech była znikoma. W ten sposób Intel zapewnił maksymalną wydajność w większości gier i aplikacji wykorzystując jeden lub dwa wątki, zachowując jednocześnie energooszczędność, o której AMD mogło wówczas tylko marzyć.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Znacząco ulepszono także moduł Power Control Unit, który odpowiada za rozdział mocy pomiędzy rdzeniami i pozostałymi modułami chipa. Dzięki udoskonaleniom procesu technicznego i ulepszeniom inżynieryjnym materiałów Intelowi udało się stworzyć niemal idealny system, w którym procesor w stanie bezczynności jest w stanie praktycznie W ogóle nie zużywać energii. Warto zauważyć, że osiągnięcie takiego wyniku nie wiąże się ze zmianami architektonicznymi - jednostka sterująca zasilacza przeniosła się pod osłonę Westmere bez żadnych zmian, a dopiero zwiększone wymagania dotyczące materiałów i ogólnej jakości pozwoliły zredukować do zera prądy upływowe z odłączonych rdzeni ( lub prawie do zera) procesor i towarzyszące mu moduły znajdują się w stanie bezczynności.

Wymieniając trzykanałowy kontroler pamięci na dwukanałowy, Westmere mógł stracić trochę wydajności, ale dzięki zwiększonej częstotliwości pamięci (1066 dla głównego nurtu Nehalem i 1333 dla bohatera tej części artykułu) nowy i7 nie tylko nie stracił na wydajności, ale w niektórych przypadkach okazał się szybszy od procesorów Nehalem. Nawet w aplikacjach, które nie wykorzystują wszystkich czterech rdzeni, i7 870 okazał się prawie identyczny ze swoim starszym bratem dzięki przewadze w częstotliwości DDR3.

Wydajność w grach zaktualizowanego i7 była niemal identyczna z najlepszym rozwiązaniem poprzedniej generacji - i7 975, który kosztował dwa razy więcej. Jednocześnie młodsze rozwiązanie balansowało na krawędzi z Phenomem II X4 965 BE, czasem pewnie go wyprzedzając, a czasem tylko nieznacznie.

Jednak właśnie cena była tym, co zmyliło wszystkich fanów Intela – a rozwiązanie w postaci niesamowitych 199 dolarów za Core i5 750 każdemu idealnie odpowiadało. Tak, nie było tu trybu SMT, ale mocne rdzenie i doskonała wydajność pozwoliły nie tylko przewyższyć flagowy procesor AMD, ale także zrobić to znacznie taniej.

To były mroczne czasy dla The Reds, ale mieli asa w rękawie – wkrótce miała zostać wypuszczona na rynek nowa generacja procesorów AMD FX. To prawda, że ​​Intel nie przybył bez broni.

Narodziny legendy i wielka bitwa. Sandy Bridge kontra AMD FX

Patrząc wstecz na historię relacji obu gigantów, staje się oczywiste, że to okres 2010-2011 wiązał się z najbardziej niesamowitymi oczekiwaniami wobec AMD i nieoczekiwanie udanymi rozwiązaniami dla Intela. Choć obie firmy zaryzykowały, prezentując zupełnie nowe architektury, dla Czerwonych zapowiedź kolejnej generacji mogła być katastrofalna, podczas gdy Intel w ogóle nie miał wątpliwości.

Podczas gdy w Lynnfield poprawiono ogromną liczbę błędów, Sandy Bridge zabrał inżynierów z powrotem do deski kreślarskiej. Przejście na 32 nm oznaczało utworzenie monolitycznej podstawy, w niczym już nie przypominającej oddzielnego układu stosowanego w Nehalem, gdzie dwa bloki dwóch rdzeni dzieliły kryształ na dwie części, a moduły wtórne umieszczono po bokach. W przypadku Sandy Bridge Intel stworzył układ monolityczny, w którym rdzenie umieszczono w jednym bloku, korzystając ze wspólnej pamięci podręcznej L3. Potok wykonawczy tworzący potok zadań został całkowicie przeprojektowany, a szybka magistrala pierścieniowa zapewniła minimalne opóźnienia podczas pracy z pamięcią, a co za tym idzie, najwyższą wydajność w dowolnych zadaniach.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-2600k

Pod maską pojawiła się także zintegrowana grafika, która zajmuje tyle samo 20% powierzchni chipa – po raz pierwszy od wielu lat Intel postanowił poważnie zająć się wbudowanym GPU. I choć taki bonus nie jest znaczący jak na standardy poważnych dyskretnych kart, to najskromniejsze karty graficzne Sandy Bridge mogą okazać się niepotrzebne. Jednak pomimo przeznaczenia 112 milionów tranzystorów na układ graficzny, w Sandy Bridge inżynierowie Intela postawili na zwiększenie wydajności rdzenia bez zwiększania powierzchni matrycy, co na pierwszy rzut oka nie jest łatwym zadaniem – matryca trzeciej generacji jest tylko o 2 mm2 większa od Q9000 kiedyś miał. Czy inżynierom Intela udało się dokonać czegoś niewiarygodnego? Odpowiedź wydaje się oczywista, ale niech będzie intrygująca. Wkrótce do tego wrócimy.

Oprócz zupełnie nowej architektury, Sandy Bridge stał się także największą linią procesorów w historii Intela. O ile w czasach Lynnfielda blues prezentował 18 modeli (11 dla komputerów przenośnych i 7 dla komputerów stacjonarnych), to teraz ich asortyment wzrósł do 29 (!) SKU wszystkich możliwych profili. Komputery stacjonarne otrzymały w momencie premiery 8 z nich – od i3-2100 do i7-2600k. Innymi słowy, uwzględniono wszystkie segmenty rynku. Najtańszy i3 oferowano za 117 dolarów, a flagowiec za 317 dolarów, co było niewiarygodnie tanie jak na standardy poprzednich generacji.
W prezentacjach marketingowych Intel nazwał Sandy Bridge „drugą generacją procesorów Core”, choć technicznie rzecz biorąc, przed nim istniały trzy takie generacje. Bluesowie swoją logikę tłumaczyli numeracją procesorów, w której liczba po oznaczeniu i* była zrównana z generacją - z tego powodu wielu do dziś wierzy, że Nehalem był jedyną architekturą i7 pierwszej generacji.

Pierwszy w historii Intela Sandy Bridge otrzymał nazwę odblokowanych procesorów – litera K w nazwie modelu, oznaczająca darmowy mnożnik (jak lubiła robić firma AMD, najpierw w procesorach z serii Black Edition, a potem wszędzie). Jednak podobnie jak w przypadku SMT, taki luksus był dostępny jedynie za dodatkową opłatą i wyłącznie w kilku modelach.

Oprócz linii klasycznej Sandy Bridge miał również procesory oznaczone T i S, przeznaczone dla konstruktorów komputerów i systemów przenośnych. Wcześniej Intel nie traktował poważnie tego segmentu.

Wraz ze zmianami w działaniu mnożnika i magistrali BCLK, Intel zablokował możliwość podkręcania modeli Sandy Bridge bez indeksu K, zamykając tym samym lukę, która w Nehalem sprawdziła się doskonale. Osobnym utrudnieniem dla użytkowników był system „ograniczonego podkręcania”, który umożliwiał ustawienie wartości częstotliwości Turbo dla procesora pozbawionego uroków odblokowanego modelu. Zasada działania podkręcania po wyjęciu z pudełka pozostaje niezmieniona w przypadku Lynnfielda - przy użyciu jednego rdzenia system wytwarza maksymalną dostępną (w tym chłodzenie) częstotliwość, a jeśli procesor jest w pełni obciążony, podkręcanie będzie znacznie niższe, ale dla wszystkich rdzeni .

Wręcz przeciwnie, ręczne podkręcanie odblokowanych modeli przeszło do historii dzięki liczbom, które Sandy Bridge pozwolił osiągnąć nawet w połączeniu z najprostszą dostarczoną chłodnicą. 4.5 GHz bez wydatków na chłodzenie? Nikt wcześniej nie skakał tak wysoko. Nie wspominając, że nawet 5 GHz było już osiągalne z punktu widzenia overclockingu przy odpowiednim chłodzeniu.
Oprócz innowacji architektonicznych Sandy Bridge towarzyszyły innowacje techniczne - nowa platforma LGA1155 wyposażona w obsługę SATA 6 Gb/s, pojawienie się interfejsu UEFI dla BIOS-u i inne przyjemne drobiazgi. Zaktualizowana platforma otrzymała natywną obsługę HDMI 1.4a, Blu-Ray 3D i DTS HD-MA, dzięki czemu w odróżnieniu od rozwiązań desktopowych opartych na Westmere (rdzeń Clarkdale), Sandy Bridge nie doświadczał przykrych trudności przy przesyłaniu obrazu do nowoczesnych telewizorów i odtwarzanie filmów w 24 klatkach, co niewątpliwie ucieszyło fanów kina domowego.

Jednak z punktu widzenia oprogramowania było jeszcze lepiej, ponieważ to właśnie wraz z wydaniem Sandy Bridge Intel wprowadził swoją dobrze znaną technologię dekodowania wideo wykorzystującą zasoby procesora - Quick Sync, która okazała się najlepszym rozwiązaniem podczas pracy z wideo . Wydajność grafiki Intel HD Graphics w grach nie pozwoliła nam oczywiście stwierdzić, że zapotrzebowanie na karty graficzne należy już do przeszłości, jednak sam Intel słusznie zauważył, że w przypadku procesora graficznego kosztującego 50 dolarów lub mniej, ich układ graficzny mógłby stać się poważnym konkurentem, co nie było dalekie od prawdy - w momencie premiery Intel zademonstrował wydajność rdzenia graficznego 2500k na poziomie HD5450 - najtańszej karty graficznej AMD Radeon.

Intel Core i5 2500k jest uważany za prawdopodobnie najpopularniejszy procesor. Nie ma w tym nic dziwnego, gdyż dzięki odblokowanemu mnożnikowi, lutowaniu pod obudową i niskiemu odprowadzaniu ciepła stał się prawdziwą legendą wśród overclockerów.

Wydajność Sandy Bridge w grach po raz kolejny podkreśliła trend wyznaczony przez firmę Intel w poprzedniej generacji - oferowanie użytkownikowi wydajności na poziomie najlepszych rozwiązań Nehalem kosztujących 999 dolarów. I niebieskiemu gigantowi się to udało – za skromną kwotę nieco ponad 300 dolarów użytkownik otrzymał wydajność porównywalną z i7 980X, co jeszcze pół roku temu wydawało się nie do pomyślenia. Co prawda, trzecia (a może druga?) generacja procesorów Core nie pokonała nowych horyzontów wydajnościowych, jak miało to miejsce w przypadku Nehalem, ale znaczne obniżenie kosztów cenionych topowych rozwiązań pozwoliło stać się prawdziwie „ludowym” rozwiązaniem wybór.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Intel Core i5-2500k

Wygląda na to, że przyszedł czas na debiut AMD ze swoją nową architekturą, jednak na pojawienie się prawdziwego konkurenta trzeba było jeszcze trochę poczekać – wraz z triumfalną premierą Sandy Bridge w arsenale czerwonego giganta znalazł się jedynie nieco rozbudowany Phenom Linia II, uzupełniona o rozwiązania bazujące na rdzeniach Thuban – dobrze znane sześciordzeniowe procesory X6 1055 i 1090T. Procesory te, mimo drobnych zmian architektonicznych, mogły pochwalić się jedynie powrotem technologii Turbo Core, w której zasada regulacji podkręcania rdzeni powróciła do indywidualnego strojenia każdego z nich, tak jak miało to miejsce w oryginalnym Phenomie. Dzięki tej elastyczności możliwy stał się zarówno najbardziej ekonomiczny tryb pracy (ze spadkiem częstotliwości rdzenia w trybie bezczynności do 800 MHz), jak i agresywny profil wydajności (podkręcanie rdzeni o 500 MHz powyżej częstotliwości fabrycznej). Poza tym Thuban nie różnił się niczym od swoich młodszych braci z tej serii, a jego dwa dodatkowe rdzenie posłużyły raczej jako chwyt marketingowy dla AMD, oferując więcej rdzeni za mniejsze pieniądze.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Niestety większa liczba rdzeni wcale nie oznaczała większej wydajności - w testach gier X6 1090T aspirował do poziomu low-endowego Clarkdale'a, tylko w niektórych przypadkach podważając wydajność i5 750. Niska wydajność na rdzeń, 125 W poboru mocy i inne klasyczne wady architektury Phenom II, która wciąż trwa przy 45 nm, nie pozwoliły Czerwonym na narzucenie ostrej konkurencji Core pierwszej generacji i jego zaktualizowanym braciom. Wraz z wydaniem Sandy Bridge znaczenie X6 praktycznie zniknęło, pozostając interesującym tylko dla wąskiego kręgu profesjonalnych fanów.

Głośna reakcja AMD na nowości Intela nastąpiła dopiero w 2011 roku, kiedy wprowadzono nową linię procesorów AMD FX bazujących na architekturze Bulldozer. Pamiętając najbardziej udaną serię swoich procesorów, AMD nie stało się skromne i po raz kolejny podkreśliło swoje niesamowite ambicje i plany na przyszłość - nowa generacja obiecała, podobnie jak poprzednio, więcej rdzeni dla rynku komputerów stacjonarnych, innowacyjną architekturę i oczywiście , niesamowita wydajność w kategoriach stosunku ceny do wydajności.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Z architektonicznego punktu widzenia Bulldozer wyglądał odważnie – modułowe rozmieszczenie rdzeni w czterech blokach na wspólnej pamięci podręcznej L3 w idealnych warunkach zostało zaprojektowane tak, aby zapewnić optymalną wydajność w zadaniach i aplikacjach wielowątkowych, jednak ze względu na chęć zachowania kompatybilności przy szybko starzejącej się platformie AM2 AMD zdecydowało się zachować osłonę procesora kontrolera mostka północnego, stwarzając sobie jeden z najważniejszych problemów w kolejnych latach.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Kryształowy buldożer

Pomimo 4 rdzeni fizycznych, procesory Bulldozer oferowane były użytkownikom jako ośmiordzeniowe – wynikało to z obecności dwóch rdzeni logicznych w każdej jednostce obliczeniowej. Każdy z nich mógł pochwalić się własną, ogromną pamięcią podręczną L2 o pojemności 2 MB, dekoderem, buforem instrukcji o wielkości 256 KB i jednostką zmiennoprzecinkową. To rozdzielenie części funkcjonalnych umożliwiło przetwarzanie danych w ośmiu wątkach, podkreślając nacisk na nową architekturę w dającej się przewidzieć przyszłości. Bulldozer otrzymał wsparcie dla SSE4.2 i AESNI, a jedna jednostka FPU na rdzeń fizyczny stała się zdolna do wykonywania 256-bitowych instrukcji AVX.

Na nieszczęście dla AMD Intel wprowadził już Sandy Bridge, więc wymagania dotyczące części procesorowej znacznie wzrosły. Za cenę znacznie niższą od X6 1090T przeciętny użytkownik mógł kupić świetny i5 2500k i uzyskać wydajność porównywalną z najlepszymi ofertami poprzedniej generacji, a Czerwoni musieli zrobić to samo. Niestety, realia czasów premiery miały swoje zdanie w tej sprawie.

Już 6 rdzeni starszego Phenoma II było w większości przypadków w połowie wolnych w połowie, nie mówiąc już o ośmiu wątkach AMD FX – ze względu na specyfikę zdecydowanej większości gier i aplikacji wykorzystujących 1-2 wątki, sporadycznie aż 4 wątki, nowy produkt z czerwonego obozu okazał się tylko nieznacznie szybszy poprzedni Phenom II, beznadziejnie tracąc 2500 tys. Pomimo pewnych zalet w zadaniach zawodowych (np. w archiwizacji danych), flagowy FX-8150 okazał się nieciekawy dla konsumentów już zaślepionych mocą i5 2500k. Rewolucja nie nastąpiła i historia się nie powtórzyła. Warto wspomnieć o wbudowanym syntetycznym teście WinRAR, który był wielowątkowy, podczas gdy w rzeczywistej pracy archiwizator w pełni wykorzystywał tylko dwa wątki.

Kolejny most. Ivy Bridge lub podczas oczekiwania

Przykład AMD wskazywał na wiele rzeczy, ale przede wszystkim podkreślał potrzebę stworzenia jakiejś podstawy, na której można zbudować udaną (pod każdym względem) architekturę procesorową. W ten sposób w epoce K7/K8 AMD stało się najlepszym z najlepszych i to właśnie dzięki tym samym postulatom Intel zajął ich miejsce wraz z wypuszczeniem Sandy Bridge.

Udoskonalenia architektoniczne okazały się bezużyteczne, gdy w rękach Bluesa pojawiła się kombinacja wygrana-wygrana – mocne rdzenie, umiarkowane TDP i sprawdzony format platformy na magistrali pierścieniowej, niewiarygodnie szybki i wydajny do każdego zadania. Teraz pozostało tylko utrwalić sukces, wykorzystując wszystko, co było wcześniej - i właśnie takim sukcesem stała się przejściowa Ivy Bridge, trzecia (jak twierdzi Intel) generacja procesorów Core.

Być może najbardziej znaczącą zmianą z architektonicznego punktu widzenia było przejście Intela na 22 nm – nie skok, ale pewny krok w kierunku zmniejszenia rozmiaru matrycy, która ponownie okazała się mniejsza niż jej poprzedniczka. Nawiasem mówiąc, rozmiar matrycy procesora AMD FX-8150 ze starą technologią procesową 32 nm wynosił 315 mm2, podczas gdy procesor Intel Core i5-3570 miał rozmiar o ponad połowę mniejszy: 133 mm2.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Tym razem Intel ponownie postawił na grafikę pokładową i przeznaczył dla niej więcej miejsca na chipie – choć tylko trochę więcej. Pozostała część topologii chipa nie uległa żadnym zmianom - te same cztery bloki rdzeni ze wspólnym blokiem pamięci podręcznej L3, kontrolerem pamięci i systemowym kontrolerem I/O. Można powiedzieć, że projekt wygląda niesamowicie identycznie, ale taka była istota platformy Ivy Bridge – zachowanie tego, co najlepsze w Sandy, przy jednoczesnym dodaniu plusów do całości.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Kryształowy Most Bluszczowy

Dzięki przejściu na cieńszą technologię procesową Intelowi udało się zmniejszyć całkowity pobór mocy procesorów do 77 W – z 95 w poprzedniej generacji. Nadzieje na jeszcze wybitniejsze wyniki podkręcania nie okazały się jednak uzasadnione – ze względu na kapryśny charakter Ivy Bridge, osiąganie wysokich częstotliwości wymagało większych napięć niż w przypadku Sandy, więc nie było szczególnego pośpiechu z biciem rekordów z tą rodziną procesorów. Również wymiana interfejsu termicznego pomiędzy osłoną rozprowadzającą ciepło procesora a jego chipem z lutu na pastę termiczną nie była najlepsza do podkręcania.

Na szczęście dla posiadaczy Core poprzedniej generacji gniazdo nie uległo zmianie, a nowy procesor można było bez problemu zamontować w poprzedniej płycie głównej. Jednak nowe chipsety oferowały takie cuda, jak obsługa USB 3.0, więc użytkownicy podążający za nowinkami technologicznymi prawdopodobnie pośpieszyli z zakupem nowej płyty na chipsecie Z.

Ogólna wydajność Ivy Bridge nie wzrosła na tyle znacząco, aby nazwać ją kolejną rewolucją, ale raczej konsekwentnie. W zadaniach profesjonalnych 3770k wykazywał wyniki porównywalne z profesjonalnymi procesorami z serii X, a w grach wyprzedzał dawnych faworytów 2600k i 2700k różnicą około 10%. Niektórzy mogą uznać, że to za mało, aby dokonać aktualizacji, ale Sandy Bridge nie bez powodu jest uważany za jedną z najdłużej działających rodzin procesorów w historii.

Wreszcie nawet najbardziej oszczędni użytkownicy gier komputerowych mogli poczuć się w czołówce - Intel HD Graphics 4000 okazał się znacznie szybszy od poprzedniej generacji, wykazując średni wzrost na poziomie 30-40%, a także otrzymał wsparcie dla DirectX 11. Teraz można było grać w popularne gry na średnio-niskich ustawieniach, uzyskując dobrą wydajność.

Podsumowując, Ivy Bridge był mile widzianym dodatkiem do rodziny Intel, unikającym wszelkiego rodzaju ryzyka wynikającego z architektonicznych ekscesów i przestrzegającym zasady tik-tak, od której Blues nigdy nie odstępowali. The Reds podjęli próbę przeprowadzenia na szeroką skalę prac nad błędami w postaci Piledrivera – nowej generacji w starej odsłonie.
Przestarzałe 32 nm nie pozwoliło AMD na kolejną rewolucję, dlatego wezwano Piledrivera do skorygowania niedociągnięć Bulldozera, zwracając uwagę na najsłabsze aspekty architektury AMD FX. Rdzenie Zambezi zostały zastąpione przez Visherę, co obejmowało pewne usprawnienia w stosunku do rozwiązań opartych na Triniti – mobilnych procesorach czerwonego giganta, ale TDP pozostało niezmienione – 125 W dla flagowego modelu o indeksie 8350. Konstrukcyjnie był identyczny ze swoim starszym bratem , ale ulepszenia architektoniczne i zwiększenie częstotliwości o 400 MHz pozwoliły nam nadrobić zaległości.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Slajdy promocyjne AMD w przededniu premiery Bulldozera obiecywały fanom marki 10-15% wzrost wydajności z pokolenia na pokolenie, jednak wypuszczenie Sandy Bridge i ogromny krok naprzód nie pozwoliły nazwać tych obietnic zbyt ambitnymi - teraz Ivy Bridge był już na półkach, jeszcze bardziej przesuwając górną granicę progowej produktywności. Aby uniknąć ponownego błędu, AMD wprowadziło Visherę jako alternatywę dla budżetowej części linii Ivy Bridge - 8350 został przeciwstawiony i5-3570K, co wynikało nie tylko z ostrożności Czerwonych, ale także Polityka cenowa. Flagowy Piledriver trafił do sprzedaży za 199 dolarów, co czyniło go tańszym od potencjalnego konkurenta – tego samego jednak nie można było powiedzieć z całą pewnością o wydajności.

Zadania zawodowe były najjaśniejszym miejscem, w którym FX-8350 mógł ujawnić swój potencjał – rdzenie pracowały tak szybko, jak to możliwe, a w niektórych przypadkach nowy produkt AMD wyprzedzał nawet 3770k, ale tam, gdzie szukała większość użytkowników (wydajność w grach), procesor pokazał wyniki podobne do i7-920, a w najlepszym razie niezbyt odbiegające od 2500 tys. Jednak taki stan rzeczy nikogo nie zdziwił – 8350 był w tych samych zadaniach o 20% wydajniejszy od 8150, natomiast TDP pozostało bez zmian. Praca nad naprawieniem błędów zakończyła się sukcesem, choć nie tak kolorowo, jak wielu by chciało.

Rekord świata w podkręcaniu procesora AMD FX 8370 został ustanowiony przez fińskiego overclockera The Stilt w sierpniu 2014 roku. Udało mu się podkręcić kryształ do 8722,78 MHz.

Haswell: Zbyt piękne, aby znowu było prawdziwe

Architektoniczna ścieżka Intela, jak już widać, znalazła swój złoty środek – trzymanie się ugruntowanego schematu w budowaniu udanej architektury, wprowadzając ulepszenia we wszystkich aspektach. Sandy Bridge stał się twórcą wydajnej architektury opartej na magistrali pierścieniowej i zjednoczonej jednostce rdzenia, Ivy Bridge udoskonalił ją pod względem sprzętowym i zasilającym, a Haswell stał się swego rodzaju kontynuacją swojego poprzednika, obiecując nowe standardy jakości i wydajności .

Slajdy architektoniczne z prezentacji Intela delikatnie sugerowały, że architektura pozostanie niezmieniona. Ulepszenia wpłynęły tylko na niektóre szczegóły formatu optymalizacji - dodano nowe porty dla menedżera zadań, zoptymalizowano pamięć podręczną L1 i L2, a także bufor TLB w tym ostatnim. Nie sposób nie zauważyć udoskonaleń sterownika PCB, który odpowiada za działanie procesu w różnych trybach i związane z tym koszty energii. Mówiąc najprościej, w spoczynku Haswell stał się znacznie bardziej ekonomiczny niż Ivy Bridge, ale nie było mowy o ogólnym zmniejszeniu TDP.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Zaawansowane płyty główne obsługujące szybkie moduły DDR3 dostarczyły entuzjastom pewnej radości, jednak z punktu widzenia podkręcania wszystko okazało się smutne – wyniki Haswella były jeszcze gorsze od poprzedniej generacji, a było to w dużej mierze spowodowane przejściem na inne interfejsy termiczne, z których teraz nie żartują tylko leniwi. Zintegrowana grafika również uzyskała korzyści w zakresie wydajności (ze względu na rosnący nacisk na świat przenośnych laptopów), ale na tle braku widocznego wzrostu IPC Haswell został nazwany „Hasfail” za żałosny wzrost wydajności o 5-10% w porównaniu do poprzedniej generacji. To w połączeniu z problemami produkcyjnymi doprowadziło do tego, że Broadwell – kolejna generacja Intela – stała się praktycznie nieistniejącym mitem, gdyż jego wydanie na platformy mobilne i całoroczna pauza negatywnie wpłynęły na ogólną percepcję użytkowników. Aby choć w jakiś sposób naprawić sytuację, Intel wypuścił Haswell Refresh, znany również jako Devil Canyon - jednak cały jego sens polegał na podwyższeniu częstotliwości bazowych procesorów Haswell (4770k i 4670k), dlatego nie będziemy mu poświęcać osobnego rozdziału.

Broadwell-H: Jeszcze bardziej ekonomiczny, jeszcze szybszy

Długa przerwa w wydaniu Broadwell-H wynikała z trudności związanych z przejściem na nowy proces technologiczny, jednak jeśli zagłębimy się w analizę architektury, stanie się oczywiste, że wydajność procesorów Intel osiągnęła poziom nieosiągalny dla konkurencji od AMD. Nie oznacza to jednak, że Czerwoni marnowali czas – dzięki inwestycjom w APU rozwiązania oparte na Kaveri cieszyły się sporym zainteresowaniem, a starsze modele serii A8 spokojnie mogły dać przewagę dowolnej zintegrowanej grafice od Bluesa. Najwyraźniej Intelowi absolutnie nie podobał się taki stan rzeczy – dlatego też rdzeń graficzny Iris Pro zajmował szczególne miejsce w architekturze Broadwell-H.

W połączeniu z przejściem na 14 nm rozmiar matrycy Broadwell-H właściwie pozostał taki sam – ale bardziej kompaktowy układ pozwolił nam jeszcze bardziej skupić się na zwiększaniu mocy graficznej. Przecież to właśnie na laptopach i centrach multimedialnych Broadwell znalazł swój pierwszy dom, dlatego innowacje takie jak obsługa sprzętowego dekodowania HEVC (H.265) i VP9 wydają się więcej niż rozsądne.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-5775C

Na szczególną uwagę zasługuje kryształ eDRAM, który zajął osobne miejsce na krystalicznym podłożu i stał się swego rodzaju szybkim buforem danych – L4 Cache – dla rdzeni procesorów. Wykonanie którego pozwoliło nam liczyć na poważny krok naprzód w zadaniach profesjonalnych, które są szczególnie wrażliwe na szybkość przetwarzania danych buforowanych. Kontroler eDRAM zajmował miejsce na chipie głównego procesora, inżynierowie wykorzystali go do zastąpienia wolnej przestrzeni po przejściu na nowy proces technologiczny.

Aby przyspieszyć działanie wbudowanej grafiki, zintegrowano także eDRAM, pełniąc rolę szybkiej pamięci podręcznej klatek - przy pojemności 128 MB jego możliwości mogą znacznie uprościć pracę wbudowanego procesora graficznego. Tak naprawdę to na cześć kryształu eDRAM do nazwy procesora dodano literę C - Intel nazwał technologię szybkiego buforowania danych w chipie Crystal Wall.

Co dziwne, charakterystyka częstotliwościowa nowego produktu stała się znacznie skromniejsza niż Haswella - starszy 5775C miał częstotliwość bazową 3.3 GHz, ale jednocześnie mógł pochwalić się odblokowanym mnożnikiem. Wraz ze zmniejszeniem częstotliwości spadło także TDP – obecnie wynosiło ono zaledwie 65 W, co jak na procesor tej klasy jest chyba najlepszym osiągnięciem, bo wydajność pozostała niezmieniona.

Pomimo skromnych (jak na standardy Sandy Bridge) możliwości podkręcania, Broadwell-H zaskoczył swoją energooszczędnością, okazał się najbardziej ekonomiczny i najfajniejszy wśród konkurentów, a zintegrowana grafika wyprzedzała nawet rozwiązania z rodziny AMD A10, pokazując, że postawienie na rdzeń graficzny pod maską było uzasadnione.

Warto pamiętać, że Broadwell-H okazał się na tyle pośredni, że w ciągu sześciu miesięcy wprowadzono na rynek procesory oparte na architekturze Skylake, które stały się szóstą generacją rodziny Core.

Skylake – Czas rewolucji już dawno minął

Co dziwne, od Sandy Bridge minęło wiele pokoleń, ale żadnemu z nich nie udało się zaszokować publiczności czymś niesamowitym i innowacyjnym, z wyjątkiem zapewne Broadwell-H - ale tam chodziło bardziej o bezprecedensowy skok w grafice i jego wydajności (w porównaniu do APU AMD), a nie o ogromnych przełomach w wydajności. Czasy Nehalem z pewnością minęły i nie wrócą, ale Intel małymi krokami posuwał się do przodu.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Architektonicznie Skylake został przearanżowany, a poziomy układ jednostek obliczeniowych został zastąpiony klasycznym układem kwadratowym, w którym rdzenie oddzielone są współdzieloną pamięcią podręczną LLC, a potężny rdzeń graficzny znajduje się po lewej stronie.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-6700k

Ze względu na cechy techniczne kontroler eDRAM znajduje się obecnie w obszarze jednostki sterującej we/wy jako dodatek do modułu sterującego wyjściem obrazu, aby zapewnić najlepszą jakość transmisji obrazu ze zintegrowanego rdzenia graficznego. Spod osłony zniknął wbudowany regulator napięcia zastosowany w Haswellu, zaktualizowano magistralę DMI, a dzięki zasadzie kompatybilności wstecznej procesory Skylake obsługiwały zarówno pamięć DDR4, jak i DDR3 - opracowano dla nich nowy standard SO-DIMM DDR3L , pracujące przy niskich napięciach .

Jednocześnie nie można nie zauważyć, jak wiele uwagi Intel poświęca reklamowaniu kolejnej generacji grafiki pokładowej – w przypadku Skylake’a był już szósty w niebieskiej linii. Intel jest szczególnie dumny ze wzrostu wydajności, który był szczególnie znaczący w przypadku Broadwell, ale tym razem obiecuje szczególnie oszczędnym graczom najwyższy poziom wydajności i obsługę wszystkich nowoczesnych interfejsów API, w tym DirectX 12. Podsystem graficzny jest częścią tzw. System on Chip (SOC), który także Intel aktywnie promował jako przykład udanego rozwiązania architektonicznego. Ale jeśli pamiętasz, że zintegrowany kontroler napięcia zniknął, a podsystem zasilania opiera się całkowicie na VRM płyty głównej, oczywiście Skylake nie osiągnął jeszcze pełnoprawnego SOC. O zintegrowaniu układu mostka południowego pod pokrywą nie ma w ogóle mowy.

Jednak SOC pełni tutaj rolę pośrednika, swego rodzaju „pomostu” pomiędzy układem graficznym Gen9, rdzeniami procesora a systemowym kontrolerem I/O, który odpowiada za interakcję podzespołów z procesorem i przetwarzanie danych. Jednocześnie Intel położył znaczny nacisk na efektywność energetyczną i mnóstwo działań podjętych przez Intela w walce o zużywanie mniejszej ilości watów - Skylake udostępnia różne „bramki mocy” (nazwijmy je stanami mocy) dla każdej sekcji SOC, w tym szybką magistralę pierścieniową, podsystem graficzny i kontroler multimediów. Poprzedni system kontroli mocy fazowej procesora oparty na stanie P ewoluował w technologię Speed ​​Shift, która zapewnia zarówno dynamiczne przełączanie pomiędzy różnymi fazami (na przykład podczas wybudzania z trybu uśpienia podczas aktywnej pracy lub rozpoczynania ciężkiej gry po lekkim surfowaniu) ) i równoważenie kosztów zasilania pomiędzy aktywnymi jednostkami CPU w celu osiągnięcia najwyższej wydajności w ramach TDP.

W związku z przeprojektowaniem związanym ze zniknięciem kontrolera mocy, Intel zmuszony był przenieść Skylake'a na nowe gniazdo LGA1151, dla którego wypuszczono płyty główne oparte na chipsecie Z170, które otrzymały obsługę 20 linii PCI-E 3.0, jedno USB 3.1 Port typu A, zwiększona liczba portów USB 3.0, obsługa dysków eSATA i M2. Stwierdzono, że pamięć obsługuje moduły DDR4 o częstotliwościach do 3400 MHz.

Jeśli chodzi o wydajność, wydanie Skylake nie przyniosło żadnych wstrząsów. Oczekiwany wzrost wydajności o pięć procent w porównaniu z Devil Canyon wprawił wielu fanów w oszołomienie, ale ze slajdów prezentacji firmy Intel jasno wynikało, że główny nacisk położono na efektywność energetyczną i elastyczność nowej platformy, która może być odpowiednia zarówno dla opłacalnych mikro- Systemy ITX i dla zaawansowanych platform do gier. Użytkownicy, którzy oczekiwali skoku naprzód od Sandy Bridge Skylake, byli rozczarowani; sytuacja przypominała premierę Haswella; wydanie nowego gniazda również było rozczarowujące.

Teraz czas mieć nadzieję na Kaby Lake, bo ktoś, a to miał być ten...

Jezioro Kaby. Świeże jezioro i niespodziewane zaczerwienienie

Pomimo początkowej logiki strategii „tik-tak”, Intel zdając sobie sprawę z braku jakiejkolwiek konkurencji ze strony AMD, zdecydował się rozszerzyć każdy cykl do trzech etapów, w których po wprowadzeniu nowej architektury istniejące rozwiązanie jest udoskonalane pod nową nazwę na następne dwa lata. Krokiem 14 nm był Broadwell, a następnie Skylake, a Kaby Lake odpowiednio zostało zaprojektowane tak, aby pokazać najbardziej zaawansowany poziom technologiczny w porównaniu z poprzednim Nebesnozerskiem.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Główną różnicą pomiędzy Kaby Lake a Skylake był wzrost częstotliwości o 200-300 MHz – zarówno jeśli chodzi o częstotliwość bazową, jak i podbicie. Architektonicznie nowa generacja nie otrzymała żadnych zmian - nawet zintegrowana grafika, pomimo aktualizacji oznaczeń, pozostała taka sama, ale Intel wypuścił chipset oparty na nowym Z270, który dodał 4 pasy PCI-E 3.0 do funkcjonalności poprzedniego Sunrise Point, a także wsparcie technologii Intel Optane Memory dla zaawansowanych urządzeń giganta. Zachowano niezależne mnożniki dla elementów płytki i inne funkcje poprzedniej platformy, a aplikacje multimedialne otrzymały funkcję AVX Offset, która pozwala na zmniejszenie częstotliwości procesora podczas przetwarzania instrukcji AVX w celu zwiększenia stabilności przy wysokich częstotliwościach.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-7700k

Pod względem wydajności nowe produkty Core siódmej generacji po raz pierwszy okazały się niemal identyczne z poprzednikami – Intel po raz kolejny zwracając uwagę na optymalizację zużycia energii, Intel całkowicie zapomniał o innowacjach w zakresie IPC. Jednak w przeciwieństwie do Skylake, nowy produkt rozwiązał problem ekstremalnego nagrzewania się przy poważnych poziomach overclockingu, a także sprawił, że poczułem się prawie jak za czasów Sandy Bridge, podkręcając procesor do 4.8-4.9 GHz przy umiarkowanym zużyciu energii i stosunkowo niskich temperaturach. Innymi słowy, overclocking stał się łatwiejszy, a procesor stał się o 10-15 stopni chłodniejszy, co można nazwać efektem tej samej optymalizacji, jej ostatnim cyklem.

Nikt nie mógł się domyślić, że AMD już przygotowywało prawdziwą odpowiedź na wieloletnie prace rozwojowe Intela. Nazywa się AMD Ryzen.

AMD Ryzen – Kiedy wszyscy się śmiali i nikt nie wierzył

Po wprowadzeniu w 2012 roku zaktualizowanej architektury Bulldozer, Piledriver, AMD całkowicie przeniosło się w inne obszary rynku procesorów, wypuszczając kilka udanych linii APU, a także inne ekonomiczne i przenośne rozwiązania. Jednak firma nigdy nie zapomniała o wznowionej walce o miejsce pod słońcem na komputerach stacjonarnych, udając słabość, ale jednocześnie pracując nad architekturą Zen – prawdziwym nowym rozwiązaniem mającym na celu ożywienie niegdyś utraconego ducha rywalizacji w CPU rynek.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Aby opracować nowy produkt, AMD zwróciło się o pomoc do Jima Kellera, tego samego „ojca dwóch rdzeni”, którego doświadczenie zawodowe doprowadziło czerwonego giganta do sławy i uznania na początku XXI wieku. To on wraz z innymi inżynierami opracował nową architekturę zaprojektowaną tak, aby była szybka, wydajna i innowacyjna. Niestety wszyscy pamiętali, że Bulldozer opierał się na tych samych zasadach – potrzebne było inne podejście.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Jima Kellera

AMD skorzystało z marketingu, ogłaszając 52% wzrost IPC w porównaniu z generacją Excavator – najnowszymi rdzeniami, które wyrosły z tego samego Bulldozera. Oznaczało to, że w porównaniu do 8150 procesory Zen zapowiadały się na ponad 60% szybsze, co wszystkich zaintrygowało. Początkowo na prezentacjach AMD poświęcali czas wyłącznie na zadania profesjonalne, porównując swój nowy procesor z 5930K, a później z 6800K, ale z czasem zaczęli rozmawiać także o gamingowej stronie problemu – najbardziej palącej z punktu sprzedaży widoku. Ale nawet tutaj AMD było gotowe do walki.

Architektura Zen opiera się na nowej technologii procesowej 14 nm i architektonicznie nowe produkty w niczym nie przypominają architektury modułowej z 2011 roku. Teraz w chipie mieszczą się dwa duże bloki funkcjonalne zwane CCX (Core Complex), z których każdy może mają do czterech aktywnych rdzeni. Podobnie jak w przypadku Skylake, na podłożu chipa ulokowano różnorodne kontrolery systemowe, w tym 24 linie PCI-E 3.0, obsługę aż 4 portów USB 3.1 typu A, a także dwukanałowy kontroler pamięci DDR4. Na szczególną uwagę zasługuje wielkość pamięci podręcznej L3 – we flagowych rozwiązaniach jej objętość sięga 16 MB. Każdy rdzeń otrzymał własną jednostkę zmiennoprzecinkową (FPU), co rozwiązało jeden z głównych problemów poprzedniej architektury. Radykalnie spadło też zużycie procesora – dla flagowego Ryzena 7 1800X oznaczono je na 95 W w porównaniu do 220 W dla „najgorętszych” (pod każdym względem) modeli AMD FX.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora AMD Ryzen 1800X

Nie mniej bogate w innowacje okazało się wypełnienie technologiczne – nowe procesory AMD otrzymały więc cały zestaw nowych technologii pod nagłówkiem SenseMI, do których zaliczał się m.in. Smart Prefetch (ładowanie danych do bufora pamięci podręcznej w celu przyspieszenia działania programów), Pure Power (w zasadzie odpowiednik „inteligentnego” zasilania sterującego procesora i jego segmentów, zaimplementowany w Skylake), Neural Net Prediction (algorytm działający na zasadach samouczącej się sieci neuronowej), a także Extended Frequency Range (lub XFR), zaprojektowany w celu zapewnienia użytkownikom zaawansowanych systemów chłodzenia dodatkowych częstotliwości 100 MHz. Po raz pierwszy od czasów Piledrivera podkręcanie nie zostało przeprowadzone przez Turbo Core, ale przez Precision Boost - zaktualizowaną technologię zwiększania częstotliwości w zależności od obciążenia rdzeni. Podobną technologię Intela widzieliśmy od czasów Sandy Bridge.

Nowa architektura Ryzen opiera się na magistrali Infinity Fabric, zaprojektowanej do łączenia zarówno pojedynczych rdzeni, jak i dwóch bloków CCX na podłożu chipowym. Szybki interfejs został zaprojektowany tak, aby zapewnić najszybszą możliwą interakcję pomiędzy rdzeniami i blokami, a także móc być zaimplementowany także na innych platformach – np. na ekonomicznych APU, a nawet w kartach graficznych AMD VEGA, gdzie magistrala sparowana jest z pamięcią HBM2 musi działać z przepustowością co najmniej 512 Gb/s

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Tkanina nieskończoności

Wszystko to wiąże się z ambitnymi planami rozszerzenia linii Zen o wysokowydajne platformy, serwery i APU – ujednolicenie procesu produkcyjnego, jak zawsze, prowadzi do tańszej produkcji, a prerogatywą AMD zawsze były kuszące niskimi cenami.

Początkowo AMD zaprezentowało jedynie Ryzen 7 – starsze modele z linii, skierowanej do najbardziej wybrednych użytkowników i twórców multimediów, a kilka miesięcy później dołączyły do ​​nich Ryzen 5 i Ryzen 3. To właśnie Ryzen 5 okazał się najatrakcyjniejsze rozwiązania zarówno pod względem ceny, jak i wydajności w grach, na które Intel, szczerze mówiąc, wcale nie był gotowy. I jeśli na pierwszym etapie wydawało się, że Ryzenowi skazane jest powtórzyć los Bulldozera (aczkolwiek z mniejszą dozą dramatyzmu), to z czasem stało się jasne, że AMD znów jest w stanie narzucić konkurencję.

Głównymi problemami Ryzena były niuanse techniczne, które towarzyszyły właścicielom wczesnych wersji przez pierwsze kilka miesięcy – ze względu na problemy z pamięcią Ryzenowi nie spieszyło się z rekomendacją do zakupu oraz zależność procesorów od częstotliwości pamięci RAM bezpośrednio zasugerował potrzebę dodatkowych wydatków. Jednak doświadczeni w ustawieniach taktowania użytkownicy odkryli, że przy szybkich modułach pamięci skonfigurowanych do minimalnych taktowań, Ryzen jest w stanie przesunąć nawet 7700k, co wywołało prawdziwy zachwyt w obozie fanów AMD. Ale i bez takich zachwytów rodzina procesorów Ryzen 5 okazała się na tyle udana, że ​​fala ich sprzedaży zmusiła Intela do przeprowadzenia pilnej rewolucji w swojej architekturze. Odpowiedzią na udany ruch AMD było wypuszczenie najnowszej (w chwili pisania tego tekstu) architektury Coffee Lake, która otrzymała 6 rdzeni zamiast czterech.

Jezioro Kawowe. Lód pękł

Pomimo tego, że 7700k przez długi czas utrzymywał tytuł najlepszego procesora do gier, AMD było w stanie osiągnąć niesamowity sukces w średniej klasie, wdrażając najstarszą zasadę „więcej rdzeni, ale taniej”. Ryzen 1600 miał 6 rdzeni i aż 12 wątków, a 7600k nadal utknął na 4 rdzeniach, co dało AMD proste zwycięstwo marketingowe, zwłaszcza przy wsparciu licznych recenzentów i blogerów. Następnie Intel zmienił harmonogram wypuszczania i wprowadził na rynek Coffee Lake – nie tylko kolejne kilka procent i kilka watów, ale prawdziwy krok naprzód.

To prawda, że ​​​​tutaj też zrobiono to z rezerwą. Sześć długo oczekiwanych rdzeni, nie bez radości SMT, faktycznie pojawiło się na bazie tego samego Skylake'a, zbudowanego w 14 nm. W Kaby Lake dostosowano jego podstawę, rozwiązując problemy z podkręcaniem i temperaturą, a w Coffee Lake poprawiono, zwiększając liczbę bloków rdzenia o 2 i zoptymalizowano pod kątem chłodniejszej i stabilniejszej pracy. Jeśli oceniać architekturę pod kątem innowacyjności, to w Coffee Lake nie pojawiły się żadne innowacje (poza zwiększeniem liczby rdzeni).

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ mikroprocesora Intel Core i7-8700k

Istniały jednak ograniczenia techniczne związane z koniecznością stosowania nowych płyt głównych opartych na Z370. Ograniczenia te wiążą się ze wzrostem zapotrzebowania na moc, gdyż dodanie sześciu rdzeni i przeprojektowanie układu uwzględniające rosnącą obżarstwo kryształu wymagało podniesienia minimalnych poziomów napięcia zasilania. Jak pamiętamy z historii Broadwell, Intel w ostatnich latach dążył do czegoś odwrotnego – zmniejszenia napięcia na wszystkich frontach, ale obecnie strategia ta utknęła w ślepym zaułku. Technicznie LGA1151 pozostało takie samo, jednakże ze względu na ryzyko uszkodzenia kontrolera VRM, Intel ograniczył kompatybilność procesora z poprzednimi płytami głównymi, chroniąc się w ten sposób przed ewentualnymi skandalami (jak to było w przypadku RX480 i spalonego PCI AMD -Złącza E). Zaktualizowany Z370 nie obsługuje już poprzedniej pamięci DDR3L, ale nikt nie spodziewał się takiej kompatybilności.

Sam Intel przygotowywał zaktualizowaną wersję platformy z obsługą USB 3.1 drugiej generacji, kart pamięci SDXC i wbudowanego kontrolera Wi-Fi 802.11, więc pośpiech wypuszczenia Z370 okazał się jednym z tych incydentów, które pozwoliło wyciągnąć wnioski na temat wyglądu platformy. W Coffee Lake nie zabrakło jednak niespodzianek – a szczególna ich część skupiała się na overclockingu.

Intel poświęcił temu wiele uwagi, podkreślając pracę włożoną w optymalizację procesu podkręcania - przykładowo w Coffee Lake stało się możliwe skonfigurowanie kilku ustawień podkręcania krok po kroku dla różnych warunków obciążenia rdzenia, możliwość dynamicznej zmiany pamięci taktowanie bez wychodzenia z systemu operacyjnego, obsługa dowolnych, nawet najbardziej niemożliwych mnożników DDR4 (podana obsługa częstotliwości do 8400 MHz), a także ulepszony system zasilania zaprojektowany dla maksymalnych obciążeń. Jednak w rzeczywistości podkręcanie 8700k nie było najbardziej niewiarygodne - ze względu na niepraktyczność interfejsu termicznego stosowanego bez usuwania, procesor często ograniczał się do 4.7-4.8 GHz, osiągając ekstremalne temperatury, ale przy zmianie interfejsu mógł pokażą nowe rekordy w stylu 5.2, a nawet 5.3 GHz. Jednak zdecydowana większość użytkowników nie była tym zainteresowana, więc potencjał podkręcania sześciordzeniowego Coffee Lake można nazwać powściągliwym. Tak, tak, Sandy nie została jeszcze zapomniana.

Wydajność w grach Coffee Lake nie wykazała żadnych specjalnych cudów - pomimo pojawienia się dwóch fizycznych rdzeni i czterech wątków, 8700k w momencie premiery miał tylko mniej więcej taki sam skok wydajności, wynoszący 5-10% w porównaniu z poprzednim flagowcem. Owszem, Ryzen nie mógłby z nim konkurować w niszy gamingowej, jednak z punktu widzenia usprawnień architektonicznych okazuje się, że Coffee Lake to po prostu kolejny utrzymujący się „prąd”, a nie „tyk”, jakim była Sandy Bridge w 2011 roku .

Na szczęście dla fanów AMD, po wypuszczeniu Ryzena, firma ogłosiła długoterminowe plany dotyczące gniazda AM4 i rozwoju architektury Zen do 2020 roku - a po tym, jak Coffee Lake ponownie zwróciło uwagę na segment średniej półki Intela, przyszedł czas dla Ryzena 2 – w końcu AMD musi mieć swój „prąd”.

okrutna prawdaNie widzielibyśmy Intela takim, jakim jest dzisiaj, gdyby nie wykorzystywał nieuczciwej konkurencji do promowania swoich produktów. I tak w maju 2009 roku firma została ukarana przez Komisję Europejską ogromną grzywną w wysokości 1,5 miliarda dolarów za przekupywanie producentów komputerów osobistych i jednej firmy handlowej za wybór procesorów Intela. Kierownictwo Intela stwierdziło wówczas, że ani użytkownicy, którzy będą mogli kupić komputery po niższej cenie, ani wymiar sprawiedliwości nie odniosą korzyści z decyzji o złożeniu pozwu.

Intel ma też starszą i skuteczniejszą metodę rywalizacji. Włączając po raz pierwszy instrukcję CPUID, począwszy od procesorów i486, a także tworząc i dystrybuując własny darmowy kompilator, Intel zapewnił sobie sukces na wiele lat. Ten kompilator generuje optymalny kod dla procesorów Intel i przeciętny kod dla wszystkich innych procesorów. W ten sposób nawet technicznie wydajny procesor konkurencji „przeszedł” przez nieoptymalne gałęzie programu. Zmniejszyło to ostateczną wydajność aplikacji i nie pozwoliło jej wykazać w przybliżeniu tego samego poziomu wydajności, co procesor Intel o podobnych cechach.

W tak konkurencyjnych warunkach VIA nie mogła wytrzymać konkurencji, gwałtownie ograniczając sprzedaż procesorów. Jego energooszczędny procesor Nano był gorszy od nowego wówczas procesora Intel Atom. Wszystko byłoby dobrze, gdyby jeden kompetentny technicznie badacz, Agner Fog, nie zmienił CPUID w procesorze Nano. Zgodnie z oczekiwaniami, wydajność wzrosła i przekroczyła wydajność konkurencji. Wiadomość ta nie wywołała jednak efektu bomby informacyjnej.
Rywalizacja z AMD (drugim co do wielkości producentem mikroprocesorów x86/x64 na świecie) także tej ostatniej nie przebiegała gładko – w 2008 roku z powodu problemów finansowych AMD musiało rozstać się z własnym producentem półprzewodnikowych układów scalonych, firmą GlobalFoundries. AMD w swojej walce z Intelem postawiło na procesory wielordzeniowe, oferując niedrogie procesory z wieloma rdzeniami, podczas gdy Intel mógłby odpowiedzieć w tej kategorii produktów procesorami z mniejszą liczbą rdzeni, ale z technologią Hyper-Threading.

Intel od wielu lat zwiększa swój udział w rynku procesorów do urządzeń mobilnych i komputerów stacjonarnych, wypierając konkurenta. Rynek procesorów serwerowych został już niemal całkowicie opanowany. I dopiero niedawno sytuacja zaczęła się zmieniać. Wypuszczenie na rynek procesorów AMD Ryzen zmusiło Intela do zmiany podstawowej taktyki polegającej na nieznacznym zwiększeniu częstotliwości pracy procesorów. Chociaż pakiety testowe pomogły Intelowi nie martwić się ponownie. Na przykład w syntetycznych testach SYSMark różnica między szóstą i siódmą generacją procesorów do komputerów stacjonarnych Core i7 była nieproporcjonalna do wzrostu częstotliwości przy identycznych charakterystykach rdzenia.

Ale teraz Intel zaczął również zwiększać liczbę rdzeni dla procesorów do komputerów stacjonarnych, a także częściowo zmienił markę istniejących modeli procesorów. To dobry krok w kierunku zdobycia wiedzy technicznej przez konsumentów.

Autorem artykułu jest Pavel Chudinov.

2019 – Niebieski punkt bez powrotu, czyli rewolucja chipsetów

Po dwóch bardzo udanych generacjach procesorów Ryzen, AMD było gotowe zrobić bezprecedensowy krok naprzód nie tylko w wydajności, ale także w najnowszych technologiach produkcyjnych - przechodząc na technologię procesową 7 nm, zapewniającą 25% wzrost wydajności przy zachowaniu stałego pakietu termicznego w połączeniu z wieloma zmianami architektonicznymi i optymalizacjami umożliwiło przeniesienie platformy AM4 na nowy poziom, zapewniając wszystkim właścicielom poprzednich „popularnych” systemów bezbolesną aktualizację ze wstępną aktualizacją BIOS-u.

A psychologicznie ważny znak 4 GHz, który pod wieloma względami był przeszkodą na drodze do zaciętej rywalizacji z Intelem, zaniepokoił entuzjastów w inny sposób – odkąd pojawiły się pierwsze plotki, wielu słusznie zauważyło, że wzrost częstotliwości w Ryzen 3000 rodzina raczej nie będzie większa niż 20%, ale nikt nie mógł przestać marzyć o 5 GHz, którym pochwalił się Intel. Zainteresowanie wzbudziły także liczne „przecieki”, a także kompletne linie procesorów i niesamowite detale, z których wiele okazało się dość dalekich od prawdy. Ale uczciwie warto zauważyć, że niektóre przecieki były w miarę zgodne z widzianymi wynikami – oczywiście z pewnymi zastrzeżeniami.

Technicznie rzecz biorąc, architektura Zen 2 otrzymała wiele radykalnych różnic w stosunku do swojego poprzednika, który leży u podstaw dwóch pierwszych generacji Ryzenów. Kluczową różnicą był układ procesora, składający się obecnie z trzech oddzielnych kryształów, z których dwa zawierają bloki rdzeni, a trzeci, bardziej imponujący rozmiarami, zawiera blok kontrolerów i kanałów komunikacyjnych (I/O). Pomimo wszystkich wielu zalet energooszczędnego i zaawansowanego procesu 7 nm, AMD nie mogło powstrzymać się od zauważalnie rosnących kosztów produkcji, ponieważ proces 7 nm nie został jeszcze przetestowany i doprowadzony do idealnego stosunku wadliwych chipów do czystych. Powód był jednak inny – ogólna unifikacja produkcji, która umożliwia połączenie różnych linii produkcyjnych w jedną i dobranie kryształów zarówno do niedrogiego Ryzena 5, jak i niesamowitego EPYC. To ekonomiczne rozwiązanie pozwoliło AMD utrzymać ceny na tym samym poziomie, a miło było zadowolić fanów wypuszczeniem Ryzena 3000.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu
Układ strukturalny chipletów

Podział chipa procesora na trzy małe segmenty pozwolił na znaczny postęp w rozwiązywaniu najważniejszych zadań stojących przed inżynierami AMD - zmniejszenie opóźnień Infinity Fabric, opóźnień w dostępie do pamięci podręcznej i wymianie danych z różnych bloków CCX. Teraz wielkość pamięci podręcznej została co najmniej podwojona (32 MB L3 dla 3600 w porównaniu z 16 MB dla zeszłorocznego 2600), mechanizmy pracy z nią zostały zoptymalizowane, a częstotliwość Infinity Fabric ma własny mnożnik FCLK, co pozwala na wykorzystanie RAM do 3733 MHz z optymalnymi wynikami (opóźnienia w tym przypadku nie przekraczały 65-70 nanosekund). Jednak Ryzen 3000 jest nadal wrażliwy na taktowanie pamięci, a drogie kości o niskim opóźnieniu mogą zapewnić właścicielom nowszego sprzętu nawet o 30% lub więcej wzrostu wydajności – szczególnie w niektórych scenariuszach i grach.

Pakiet termiczny procesorów pozostał taki sam, ale częstotliwości wzrosły zgodnie z oczekiwaniami - z 4,2 w trybie boost w 3600 do 4,7 w 3950X. Po wejściu na rynek wielu użytkowników napotkało problem „złego samopoczucia”, gdy procesor nawet w idealnych warunkach nie pokazywał deklarowanych przez producenta częstotliwości – „czerwony” musiał wdrożyć specjalną rewizję BIOS-u (1.0.0.3ABBA), w którym problem został pomyślnie naprawiony, a miesiąc temu wydano Global 1.0.0.4, zawierający ponad półtora setki poprawek i optymalizacji - dla niektórych użytkowników po aktualizacji częstotliwość procesora wzrosła do 75 MHz, a standardowo napięcia znacznie spadły. Nie wpłynęło to jednak w żaden sposób na potencjał podkręcania – Ryzen 3000, podobnie jak jego poprzednicy, od razu po wyjęciu z pudełka działa wyśmienicie i nie jest w stanie zaoferować potencjału podkręcania poza symbolicznymi podwyżkami – przez to jest to nudne dla entuzjastów, ale dużo radości dla tych, którzy Dlaczego nie chce dotykać ustawień w BIOSie?

Zen 2 uzyskał znaczny wzrost wydajności na rdzeń (do 15% w różnych zastosowaniach), pozwolił AMD poważnie zwiększyć wydajność we wszystkich segmentach rynku i po raz pierwszy od dziesięcioleci odwrócić losy na swoją korzyść. Co umożliwiło to? Przyjrzyjmy się bliżej.

Ryzen 3 – technologiczna fantazja

Wiele osób śledzących przecieki dotyczące generacji Zen 2 szczególnie zainteresowało się nowym Ryzenem 3. Dostępne procesory obiecywały 6 rdzeni, wydajną zintegrowaną grafikę i śmieszną cenę. Niestety, oczekiwani następcy Ryzena 3, w który AMD wyposażyło dolny segment swojej platformy w 2017 roku, nigdy nie ujrzały światła dziennego. Zamiast tego Czerwoni w dalszym ciągu używali marki Ryzen 3 jako marki z niższej półki, włączając w to dwa opłacalne i proste rozwiązania APU – nieco bardziej podkręcony (w porównaniu do swojego poprzednika) 3200G ze zintegrowaną grafiką Vega 8 zdolną obsłużyć podstawowe obciążenia systemu i gier o rozdzielczości 720p, a także jego starszy brat 3400G, który otrzymał szybszy rdzeń wideo z grafiką Vega 11, a także aktywny SMT + zwiększone częstotliwości na wszystkich frontach. To rozwiązanie mogłoby wystarczyć do prostych gier w rozdzielczości 1080p, ale o tych podstawowych rozwiązaniach wspomina się tutaj nie z tego powodu, ale ze względu na rozbieżność z przeciekami, które przewidywały, że Ryzen 3 ma nie tylko 6 rdzeni, ale także przy zachowaniu absurdalnej ceny (około 120 dolarów -150 ). Nie zapominajmy jednak o prawdziwym stanie APU – nadal korzystają one z rdzeni Zen+ i tak naprawdę tylko formalnie są przedstawicielami serii 3000.

Jeśli jednak mówimy o wartości nowej generacji jako całości, to AMD zadbało o to, aby w wielu segmentach utrzymać swoją niekwestionowaną pozycję lidera – szczególne sukcesy osiągnęła w kategorii procesorów średniej półki.

Ryzen 5 3600 – Ludowy bohater bez zastrzeżeń

Jedną z kluczowych cech architektury procesora Zen 2 było przejście od klasycznego układu jednoukładowego do stworzenia konstrukcji „modułowej” - AMD wdrożyło własny patent na „chiplety”, małe kryształy z rdzeniami procesora połączonymi ze sobą za pomocą Infinity Autobus materiałowy. Tym samym „czerwony” nie tylko wszedł na rynek z nową porcją innowacji, ale także przeprowadził poważną pracę nad jednym z najpilniejszych problemów poprzednich generacji - dużymi opóźnieniami zarówno podczas pracy z pamięcią, jak i podczas wymiany danych między rdzeniami z różnych Bloki CCX.

I to wprowadzenie nie znalazło się tutaj nie bez powodu – Ryzen 3600, niekwestionowany król segmentu średniej półki, odniósł bezwarunkowe zwycięstwo właśnie dzięki innowacjom wdrożonym przez AMD w nowej generacji. Znaczący wzrost wydajności na rdzeń oraz możliwość pracy z pamięcią szybszą niż 3200 MHz (co w większości stanowiło efektywny pułap poprzedniej generacji) pozwoliło w łatwy sposób podnieść poprzeczkę na niespotykane dotychczas wyżyny, mając na celu nie tylko najszybszym i5-9600K, ale także na flagowym i7-9700.

W porównaniu do swojego poprzednika, Ryzena 2600, nowicjusz zyskał nie tylko sporo ulepszeń w dziedzinie architektury, ale także mniej żarliwe usposobienie (3600 obiektywnie mniej się nagrzewa, dlatego AMD udało się nawet zaoszczędzić na chłodnicy poprzez usunięcie miedzianego rdzenia), chłodna głowa i umiejętność nie wstydzenia się niedociągnięć. Dlaczego? To proste – 3600 ich nie ma, choć wydaje się to absurdalne. Oceńcie sami – częstotliwość szczytowa wzrosła o 200 MHz, moc znamionowa 65 W nie jest już przypadkowa, a 6 rdzeni dorównuje (a nawet przewyższa!) obecnym rdzeniom Intela w Coffee Lake. A wszystko to zaserwowano fanom za klasyczne 199 dolarów, doprawione wsteczną kompatybilnością z większością płyt głównych dla AM4. Ryzen 3600 był skazany na sukces – a sprzedaż na całym świecie wyraźnie to pokazuje trzeci miesiąc z rzędu. W niektórych regionach, które od dawna są lojalne wobec Intela, sytuacja rynkowa zmieniła się z dnia na dzień, a kraje europejskie (a nawet Rosja!) wyprowadziły nowego narodowego bohatera sprzedaży na szczyt sukcesu. Na bezkresie naszej ojczyzny procesor zajmował 10% rynku całej sprzedaży procesorów w kraju, wyprzedzając łącznie i7-9700K i i9-9900K. A jeśli ktoś myśli, że chodzi o smaczną cenę, to wszystko nie jest takie proste: dla porównania Ryzen 2600 w tym samym okresie po wejściu na rynek zajmował nie więcej niż 3%. Sekret sukcesu tkwił gdzie indziej – AMD pokonało Intela w najbardziej obleganym segmencie rynku procesorów i stwierdziło to otwarcie podczas prezentacji podczas debiutu procesorów na targach CES2019. A smaczna cena, szeroka kompatybilność i lodówka w zestawie tylko wzmocniły i tak już niekwestionowaną pozycję lidera.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Po co więc starszy brat, 3600X, był potrzebny? Podobnie we wszystkich cechach, procesor ten był szybszy o kolejne 200 MHz (i miał częstotliwość w trybie boost 4.4 GHz), co pozwoliło uzyskać naprawdę symboliczną przewagę nad młodszym procesorem, który nie do końca wyglądał przekonująco na tle znacząco podwyższona cena (229 USD). Starszy model nadal miał jednak pewne zalety – był to brak konieczności obracania suwakami w BIOS-ie w pogoni za częstotliwościami powyżej częstotliwości bazowej oraz Precision Boost 2.0, która potrafi dynamicznie podkręcać procesor w stresujących sytuacjach, oraz cięższy chłodniej (Wraith Spire zamiast Wraith Stealth). Jeśli to wszystko brzmi jak kusząca propozycja, 3600X to doskonały klejnot z nowej oferty AMD. Jeśli nie chcesz przepłacać, a różnica w wydajności na poziomie 2-3% nie wygląda na znaczącą, śmiało wybierz 3600 - nie będziesz żałować.

Ryzen 7 3700X – stary, nowy flagowiec

AMD bez większego patosu przygotowało następcę byłego lidera – wszyscy zrozumieli, że na tle obecnych konkurentów 2700X wyglądał mizernie, a duży krok naprzód (jak w przypadku 3600) był oczywisty i oczekiwany. Nie zmieniając układu mocy pod względem rdzeni i wątków, „czerwone” wprowadziły na rynek parę procesorów, pozbawionych specjalnych różnic, ale znacząco różniących się ceną.

3700X został zaprezentowany jako bezpośredni zamiennik poprzedniego flagowca - za sugerowaną cenę 329 dolarów AMD zaprezentowało pełnoprawnego konkurenta i7-9700K, podkreślając każdą z jego zalet, takich jak bardziej zaawansowane rozwiązania technologiczne i obecność multi -threading, który Intel postanowił zarezerwować tylko dla swoich „królewskich” procesorów najwyższej kategorii. W tym samym czasie AMD wprowadziło także 3800X, który w rzeczywistości był tylko nieco szybszą wersją (300 MHz w trybie bazowym i 100 w trybie boost) i nie był w stanie w żaden sposób odróżnić się od swojego młodszego krewnego. Jednak dla osób, które nadal czują się okropnie na myśl o słowie „ręczne podkręcanie”, opcja ta wygląda całkiem nieźle, jednak za takie drobnostki trzeba sporo dopłacić – aż 70 dolarów w górę.

Ryzen 9 3900X i 3950X – pokaz siły

Jednak najważniejszym (i szczerze mówiąc niezbędnym!) wyznacznikiem sukcesu Zen 2 były starsze rozwiązania z rodziny Ryzen 9 – 12-rdzeniowy 3900X i 16-rdzeniowy mistrz w postaci 3950X. Procesory te, jedną nogą na terytorium rozwiązań HEDT, pozostają wierne logice platformy AM4, dysponując ogromnym zasobem zasobów, który może zaskoczyć nawet fanów zeszłorocznego Threadrippera.

3900X miał oczywiście przede wszystkim stanowić uzupełnienie linii Ryzen 3000 w stosunku do aktualnej gamingowej legendy – 9900K i pod tym względem procesor okazał się niesamowicie dobry. Dzięki przyspieszeniu o 4.5 GHz na rdzeń i 4.3 dla wszystkich dostępnych, 3900X zrobił znaczący krok w kierunku długo oczekiwanego dorównania Intelowi pod względem wydajności w grach, a jednocześnie przerażającej mocy w innych zadaniach - renderowaniu, przetwarzaniu, praca z archiwami itp. 24 wątki pozwoliły 3900X dogonić młodszego Threadrippera pod względem czystej wydajności, a jednocześnie nie cierpieć z powodu dotkliwego braku mocy na rdzeń (jak to miało miejsce w przypadku 2700X) lub wady kilku trybów pracy rdzenia (i notoryczny Game Mode, który wyłączał połowę rdzeni w procesorach AMD HEDT). AMD grało bezkompromisowo i choć korona za najszybszy procesor do gier wciąż pozostaje w rękach Intela (który niedawno zaprezentował 9900KS, kontrowersyjny procesor z limitowanej edycji dla kolekcjonerów), Czerwoni byli w stanie dostarczyć najbardziej wszechstronne, high-endowe procesory perełka obecnie na rynku. Ale nie najpotężniejszy - a wszystko dzięki 3950X.

3950X stał się polem eksperymentów dla AMD - połączenie mocy zasobów HEDT i tytułu „pierwszego na świecie 16-rdzeniowego procesora do gier” można nazwać czystym hazardem, ale tak naprawdę „czerwoni” prawie nie kłamali. Najwyższa częstotliwość boost w postaci 4.7 GHz (przy obciążeniu 1 rdzenia), możliwość pracy wszystkich 16 rdzeni z częstotliwością 4.4 GHz bez egzotycznego chłodzenia, a także wyselekcjonowane chipsety wyższej klasy, pozwalające na wykonanie nowy potwór jeszcze bardziej ekonomiczny niż jego 12-rdzeniowy brat ze względu na obniżenie napięć roboczych. To prawda, że ​​​​wybór chłodzenia tym razem pozostaje w gestii kupującego - AMD nie sprzedało procesora z chłodnicą, ograniczając się jedynie do zarekomendowania zakupu chłodnicy 240 lub 360 mm.

W wielu przypadkach 3950X pokazuje wydajność w grach na poziomie 12-rdzeniowego rozwiązania, co jest całkiem fajne, pamiętając smutną historię zachowania Threadrippera. Jednak w grach, w których znacznie zmniejszono użycie wątków (np. w GTA V), flagowiec nie cieszy oka – ale to raczej wyjątek od reguły.

Nowy 16-rdzeniowy procesor zupełnie inaczej prezentuje się w zadaniach profesjonalnych – nie bez powodu w wielu przeciekach można było przeczytać, że AMD tak bardzo przesunęło swoje akcenty w segmencie konsumenckim, że nowy 3950X czuje się pewnie nawet w starciu z drogimi analogami pokroju i9 -9960X, pokazujący kolosalny wzrost wydajności w Blenderze, POV Mark, Premiere i innych aplikacjach wymagających dużych zasobów. Już dzień wcześniej Threadripper obiecał imponujący pokaz mocy obliczeniowej, ale nawet 3950X pokazał, że segment konsumencki może być zupełnie inny – a nawet półprofesjonalny. Pamiętając o osiągnięciach 16-rdzeniowego flagowca platformy AM4, nie można nie przypomnieć sobie, jak Intel odpowiedział na ataki w kierunku HEDT.

Intel 10xxxX – kompromis w sprawie kompromisu

Już w przededniu premiery nowej generacji Threadrippera tu i ówdzie pojawiały się sprzeczne dane na temat nadchodzącej linii HEDT firmy Intel. Większość zamieszania związana była z nazwami nowych produktów – po wypuszczeniu na rynek dość kontrowersyjnych, ale wciąż świeżych procesorów mobilnych z linii Ice Lake w technologii procesowej 10 nm, wielu entuzjastów uwierzyło, że Intel zdecydował się promować produkty na upragnionym 10 nm małymi krokami, zajmując nie najliczniejsze nisze. Z punktu widzenia rynku laptopów premiera Ice Lake nie wywołała specjalnych wstrząsów – niebieski gigant od dawna kontroluje rynek urządzeń mobilnych, a AMD nie jest jeszcze w stanie konkurować z gigantyczną maszyną OEM i grubym kontrakty firm, które blisko współpracowały z Intelem od początku XXI wieku. Jednak w przypadku segmentu systemów o wysokiej wydajności wszystko potoczyło się zupełnie inaczej.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

O linii i9-99xxX wiemy wszystko – po dwóch generacjach Threadrippera AMD już śmiało zadeklarowało się jako pretendent na rynku HEDT, jednak rynkowa dominacja niebieskich pozostała niezachwiana. Na nieszczęście dla Intela Czerwoni nie poprzestali na swoich dotychczasowych osiągnięciach – a po debiucie Zen 2 stało się jasne, że już wkrótce wysokowydajne układy od AMD znacznie podniosą poprzeczkę wydajności, na co Intel nie był w stanie odpowiedzieć, bo niebieski gigant miał zasadniczo nowe rozwiązania i nie było to trywialne.
Przede wszystkim Intel musiał zrobić bezprecedensowy krok – 2-krotnie obniżyć ceny, co nigdy wcześniej nie miało miejsca w ciągu wieloletniej konkurencji z AMD. Teraz flagowy i9-10980XE z 18 rdzeniami na pokładzie kosztuje zaledwie 979 dolarów zamiast 1999 dolarów za swojego poprzednika, a ceny innych rozwiązań spadły w porównywalnym tempie. Jednak wielu już wiedziało, czego się spodziewać po obu premierach i kto wyjdzie zwycięsko, dlatego Intel podjął ekstremalne kroki, znosząc embargo na publikowanie recenzji nowych produktów na 6 godzin przed planowaną datą.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

I zaczęły pojawiać się recenzje. Nawet największe kanały i zasoby pozostały głęboko rozczarowane nową linią – pomimo radykalnej zmiany polityki cenowej, nowa linia 109xx okazała się prostą „pracą nad błędami” poprzedniej generacji – częstotliwości zmieniły się nieznacznie, dodatkowe PCI Pojawiły się linie E, a pakiet termiczny miał doskonałe możliwości podkręcania, nie pozostawił szans nawet hardcorowym fanom z dużymi SVO - 10980X mógł w szczycie pobierać ponad 500 W, chwaląc się nie tylko doskonałą wydajnością w benchmarkach, ale także wyraźnie pokazując, że tam to po prostu nic więcej, co można wycisnąć z 14 nm pradziadka.

Intelowi nie pomogło to, że procesory były kompatybilne z istniejącą platformą HEDT poprzedniej generacji – młodsze modele nowej linii przegrały z 3950X osunięciem się ziemi, wprawiając wielu fanów Intela w konsternację. Ale najgorsze miało dopiero nadejść.

Threadripper 3000 – 3960X, 3970X. Potwory świata informatyki.

Pomimo początkowego sceptycyzmu co do stosunkowo małej liczby rdzeni (24 i 32 rdzenie nie wywoływały takiej sensacji, jak podwojenie rdzeni we wcześniejszych Threadripperach), było jasne, że AMD nie zamierza wprowadzać na rynek rozwiązań „na pokaz”. - ogromny wzrost wydajności dla Zen 2 Dzięki licznym optymalizacjom Zen 10 i radykalnemu ulepszeniu Infinity Fabric obiecał on wydajność niespotykaną wcześniej na platformie półprofesjonalnej - i nie mówiliśmy o 20-XNUMX%, ale o czymś naprawdę monstrualnym . A kiedy zniesiono embargo, wszyscy zobaczyli, że ogromne ceny nowego Threadrippera nie wzięły się znikąd i nie wynikały z chęci AMD do oszukania fanów.

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Z punktu widzenia oszczędności kosztów Threadripper 3000 to apokalipsa dla Twojego portfela. Drogie procesory przeniosły się na zupełnie nową, bardziej zaawansowaną technologicznie i złożoną platformę TRx40, udostępniającą do 88 linii PCI-e 4.0, a tym samym zapewniającą obsługę skomplikowanych macierzy RAID z najnowszych dysków SSD lub szeregu profesjonalnych kart graficznych. Czterokanałowy kontroler pamięci i niesamowicie wydajny podsystem zasilania są przeznaczone nie tylko dla obecnych modeli, ale także dla przyszłego flagowca tej linii - 64-rdzeniowego 3990X, który ma zostać wydany po Nowym Roku.

Ale choć koszt może wydawać się dużym problemem, to pod względem wydajności AMD nie pozostawiło kamienia obojętnym wobec nowych produktów Intela – w szeregu zastosowań prezentowany Threadripper był dwukrotnie szybszy od flagowego 10980XE, a średni wzrost wydajności wyniósł około 70 %. I to pomimo faktu, że apetyty 3960X i 3970X są znacznie bardziej umiarkowane - oba procesory pobierają nie więcej niż znamionowe 280 W, a przy maksymalnym podkręcaniu na poziomie 4.3 GHz na wszystkich rdzeniach pozostają o 20% bardziej ekonomiczne niż czerwone- gorący koszmar Intela.

Tym samym AMD było w stanie po raz pierwszy w historii zaoferować na rynek bezkompromisowy produkt premium, który zapewnia nie tylko ogromny wzrost wydajności, ale też nie posiada żadnych znaczących wad - może poza ceną, ale jak to mówią: za najlepsze trzeba dodatkowo zapłacić. A Intel, choć może się to wydawać absurdalne, zamienił się w ekonomiczną alternatywę, która jednak nie wygląda już tak pewnie na tle 3950-dolarowego 750X na znacznie tańszej platformie.

Athlon 3000G – Ratunek za niezłe grosze

AMD nie zapomniało o segmencie budżetowym procesorów o małej mocy z formalną grafiką na pokładzie - tutaj nowy (ale i stary) Athlon 5400G spieszy na ratunek tym, którzy z wielką pogardą patrzą na Pentium G3000. 2 rdzenie i 4 wątki, częstotliwość podstawowa 3.5 GHz i znajomy rdzeń wideo Vega 3 (skręcony do 100 MHz) z TDP na poziomie 35 W – a wszystko to za śmieszne 49 dolarów. Czerwoni zwrócili także szczególną uwagę na możliwość podkręcania procesora, zapewniając co najmniej kolejne 30% wydajności przy częstotliwości 3.9 GHz. Jednocześnie nie będziesz musiał wydawać pieniędzy na kosztowną chłodnicę w budżetowej wersji - 3000G jest wyposażony w doskonałe chłodzenie zaprojektowane na 65 W ciepła - to wystarczy nawet do ekstremalnego podkręcania.

Podczas prezentacji AMD porównało Athlona 3000G z obecnym konkurentem Intela - Pentium G5400, który okazał się znacznie droższy (sugerowana cena - 73 USD), sprzedawany bez chłodzenia i znacznie gorszy wydajnością od nowego produktu . Zabawne jest też to, że 3000G nie jest zbudowany na architekturze Zen 2 – bazuje na starym, dobrym Zen+ przy 12 nm, co pozwala nazwać nowy produkt lekkim odświeżeniem zeszłorocznego Athlona 2xx GE.

Skutki „czerwonej” rewolucji

Premiera Zen 2 miała ogromny wpływ na rynek procesorów – być może tak radykalnych zmian nie widziano nigdy we współczesnej historii procesorów. Pamiętamy zwycięski marsz AMD 64 FX, możemy wspomnieć triumf Athlona w połowie ostatniej dekady, ale nie jesteśmy w stanie podać analogii z przeszłości „czerwonego” giganta, gdzie wszystko zmieniło się tak szybko a sukcesy były po prostu niesamowite. W ciągu zaledwie 2 lat AMD udało się wprowadzić niesamowicie wydajne rozwiązania serwerowe EPYC, otrzymać wiele lukratywnych kontraktów od światowych firm IT, powrócić do gry w konsumenckim segmencie procesorów do gier z Ryzenem, a nawet wyprzeć Intela z rynku HEDT za pomocą niezrównany Threadripper. I jeśli wcześniej wydawało się, że za całym sukcesem stoi jedynie genialny pomysł Jima Kellera, to wraz z wypuszczeniem na rynek architektury Zen 2 stało się jasne, że rozwój koncepcji wyprzedził znacznie oryginalny schemat - otrzymaliśmy doskonałe rozwiązania budżetowe (Ryzen 3600 stał się najpopularniejszym procesorem na świecie - i pozostaje nim nadal), potężne rozwiązania uniwersalne (3900X może konkurować z 9900K i zadziwiać sukcesem w zadaniach zawodowych), śmiałe eksperymenty (3950X !), a nawet ultraekonomiczne rozwiązania do najprostszych codziennych zadań (Athlon 3000G). A AMD nadal idzie do przodu - w przyszłym roku będziemy mieli nową generację, nowe sukcesy i nowe kamienie milowe, które z pewnością zostaną osiągnięte!

Wojny procesorowe. Historia o niebieskim zającu i czerwonym żółwiu

Kolumna House of NHTi „Processor Wars” w 7 odcinkach na YouTube - szturchać

Autor artykułu: Aleksander Lis.

W ankiecie mogą brać udział tylko zarejestrowani użytkownicy. Zaloguj się, Proszę.

Więc co jest lepsze?

  • 68,6%AMD327

  • 31,4%Intel150

Głosowało 477 użytkowników. 158 użytkowników wstrzymało się od głosu.

Źródło: www.habr.com

Dodaj komentarz