Historia tranzystora, część 3: Nowe wielokrotności

Historia tranzystora, część 3: Nowe wielokrotności

Inne artykuły z serii:

Od ponad stu lat analogowy pies macha cyfrowym ogonem. Próby poszerzania możliwości naszych zmysłów – wzroku, słuchu, a nawet w pewnym sensie dotyku – skłoniły inżynierów i naukowców do poszukiwania lepszych podzespołów do telegrafów, telefonów, radioodbiorników i radarów. Tylko dzięki szczęściu poszukiwania te odkryły drogę do stworzenia nowych typów maszyn cyfrowych. I postanowiłem opowiedzieć historię tej stałej egzaptacja, podczas którego inżynierowie telekomunikacji dostarczali surowce do pierwszych komputerów cyfrowych, a czasami nawet sami je projektowali i budowali.

Jednak w latach sześćdziesiątych ta owocna współpraca dobiegła końca, a wraz z nią moja historia. Producenci sprzętu cyfrowego nie musieli już szukać nowych, ulepszonych przełączników w świecie telegrafu, telefonu i radia, ponieważ sam tranzystor stanowił niewyczerpane źródło ulepszeń. Rok po roku kopali coraz głębiej, zawsze znajdując sposoby na wykładnicze zwiększenie prędkości i zmniejszenie kosztów.

Jednak nic z tego by się nie wydarzyło, gdyby wynalazek tranzystora zatrzymał się na dzieło Bardeena i Brattaina.

powolny start

W prasie popularnej nie było entuzjazmu po ogłoszeniu przez Bell Labs wynalezienia tranzystora. 1 lipca 1948 r. „The New York Times” poświęcił temu wydarzeniu trzy akapity na dole swojego raportu Radio News. Co więcej, te wiadomości pojawiały się po innych, oczywiście uznawanych za ważniejsze: na przykład godzinną audycję radiową „Waltz Time”, która miała ukazać się w NBC. Z perspektywy czasu może nam się chcieć śmiać, a nawet ganić nieznanych autorów – jak to możliwe, że nie dostrzegli wydarzenia, które wywróciło świat do góry nogami?

Historia tranzystora, część 3: Nowe wielokrotności

Jednak perspektywa czasu zniekształca percepcję, wzmacniając sygnały, których znaczenie, jak wiemy, zostało wówczas utracone w morzu hałasu. Tranzystor z 1948 roku bardzo różnił się od tranzystorów komputerów, na których czytasz ten artykuł (chyba że zdecydowałeś się go wydrukować). Różniły się tak bardzo, że pomimo tej samej nazwy i łączącej je nieprzerwanej linii dziedziczenia, należy je uznać za różne gatunki, jeśli nie za różne rodzaje. Mają inny skład, inną budowę, inną zasadę działania, nie mówiąc już o ogromnej różnicy w wielkości. Tylko dzięki ciągłemu odkrywaniu na nowo niezdarne urządzenie skonstruowane przez Bardeena i Brattaina mogło zmienić świat i nasze życie.

W rzeczywistości jednopunktowy tranzystor germanowy nie zasługiwał na więcej uwagi, niż otrzymał. Miał kilka wad odziedziczonych po lampie próżniowej. Była oczywiście znacznie mniejsza od najbardziej kompaktowych lamp. Brak gorącego żarnika sprawiał, że wytwarzał on mniej ciepła, zużywał mniej energii, nie przepalał się i nie wymagał rozgrzewania przed użyciem.

Jednakże nagromadzenie brudu na powierzchni styku doprowadziło do awarii i zniweczyło potencjał dłuższej żywotności; dał głośniejszy sygnał; pracował tylko przy małych mocach i w wąskim zakresie częstotliwości; zawiodło w obecności ciepła, zimna lub wilgoci; i nie dało się go wyprodukować jednolicie. Kilka tranzystorów stworzonych w ten sam sposób przez tych samych ludzi miałoby znacznie różne właściwości elektryczne. A wszystko to kosztowało osiem razy więcej niż standardowa lampa.

Dopiero w 1952 roku Bell Labs (i inni właściciele patentów) rozwiązali problemy produkcyjne na tyle, że tranzystory jednopunktowe stały się urządzeniami praktycznymi i nawet wtedy nie rozprzestrzeniły się one daleko poza rynek aparatów słuchowych, gdzie wrażliwość cenowa była stosunkowo niska a korzyści w zakresie żywotności baterii przeważały nad wadami.

Jednak wtedy rozpoczęły się już pierwsze próby przekształcenia tranzystora w coś lepszego i bardziej użytecznego. Właściwie rozpoczęły się znacznie wcześniej niż moment, w którym opinia publiczna dowiedziała się o jej istnieniu.

Ambicje Shockleya

Pod koniec 1947 roku Bill Shockley w wielkim podekscytowaniu wybrał się w podróż do Chicago. Miał mgliste pomysły, jak pokonać niedawno wynaleziony tranzystor Bardeena i Brattaina, ale nie miał jeszcze okazji ich rozwinąć. Zamiast więc cieszyć się przerwą między etapami pracy, Święta Bożego Narodzenia i Nowy Rok spędził w hotelu, zapełniając swoimi pomysłami około 20 stron zeszytu. Wśród nich znalazła się propozycja nowego tranzystora składającego się z kanapki półprzewodnikowej – plasterka germanu typu p umieszczonego pomiędzy dwoma kawałkami typu n.

Zachęcony tym asem w rękawie Shockley zwrócił się do Bardeena i Brattaina z prośbą o ich powrót do Murray Hill, przypisując sobie całą zasługę wynalezienia tranzystora. Czy to nie jego pomysł na efekt pola sprowadził Bardeena i Brattaina do laboratorium? Czy nie powinno to spowodować konieczności przeniesienia na niego wszelkich praw z patentu? Jednak sztuczka Shockleya przyniosła odwrotny skutek: prawnicy patentowi z Bell Labs dowiedzieli się, że nieznany wynalazca, Juliusza Edgara Lilienfelda, opatentował półprzewodnikowy wzmacniacz polowy prawie 20 lat wcześniej, w 1930 roku. Lilienfeld oczywiście nigdy nie wdrożył swojego pomysłu, biorąc pod uwagę ówczesny stan materiałów, ale ryzyko nakładania się było zbyt duże - lepiej było całkowicie unikać wspominania efekt pola w patencie

Tak więc, chociaż Bell Labs przyznało Shockleyowi znaczną część zasługi wynalazcy, w patencie wymienili jedynie Bardeena i Brattaina. Jednak tego, co zostało zrobione, nie można cofnąć: ambicje Shockleya zniszczyły jego relacje z dwoma podwładnymi. Bardeen przestał pracować nad tranzystorem i skoncentrował się na nadprzewodnictwie. Opuścił laboratoria w 1951 roku. Brattain tam pozostał, ale odmówił ponownej współpracy z Shockleyem i nalegał na przeniesienie do innej grupy.

Ze względu na niezdolność do pracy z innymi ludźmi Shockley nigdy nie poczynił żadnych postępów w laboratoriach, więc również tam wyszedł. W 1956 roku wrócił do Palo Alto, aby założyć własną firmę produkującą tranzystory, Shockley Semiconductor. Przed wyjazdem rozstał się z żoną Jean, gdy ta wracała do zdrowia po raku macicy, i związał się z Emmy Lanning, którą wkrótce poślubił. Ale z dwóch połówek jego kalifornijskiego marzenia – nowej firmy i nowej żony – spełniła się tylko jedna. W 1957 roku jego najlepsi inżynierowie, rozgniewani jego stylem zarządzania i kierunkiem, w jakim zmierza firma, opuścili go i założyli nową firmę, Fairchild Semiconductor.

Historia tranzystora, część 3: Nowe wielokrotności
Shockleya w 1956 r

Shockley porzucił więc pustą skorupę swojej firmy i podjął pracę na wydziale elektrotechniki na Uniwersytecie Stanforda. Tam nadal zniechęcał swoich kolegów (i swojego najstarszego przyjaciela, fizyka Freda Seitza) teorie degeneracji rasowej, które go interesowały i higiena rasowa – tematy niepopularne w Stanach Zjednoczonych od zakończenia ostatniej wojny, szczególnie w kręgach akademickich. Czerpał przyjemność z wzbudzania kontrowersji, podkręcania mediów i wywoływania protestów. Zmarł w 1989 roku w separacji od swoich dzieci i współpracowników, a odwiedzała go jedynie jego zawsze oddana druga żona, Emmy.

Chociaż jego marne próby przedsiębiorczości nie powiodły się, Shockley zasiał ziarno w żyznej glebie. W rejonie Zatoki San Francisco powstało wiele małych firm elektronicznych, które podczas wojny zostały zalane funduszami rządu federalnego. Fairchild Semiconductor, przypadkowy potomek Shockleya, dał początek dziesiątkom nowych firm, z których kilka jest znanych do dziś: Intel i Advanced Micro Devices (AMD). Na początku lat 1970. obszar ten zyskał szyderczy przydomek „Dolina Krzemowa”. Ale chwileczkę – Bardeen i Brattain stworzyli tranzystor germanowy. Skąd wziął się krzem?

Historia tranzystora, część 3: Nowe wielokrotności
Tak w 2009 roku wyglądało opuszczone miejsce w Mountain View, w którym dawniej mieściła się firma Shockley Semiconductor. Dziś budynek został rozebrany.

W stronę krzemowego rozdroża

Los nowego typu tranzystora, wynalezionego przez Shockleya w hotelu w Chicago, był znacznie szczęśliwszy niż jego wynalazcy. Wszystko dzięki pragnieniu jednego człowieka, aby wyhodować pojedyncze, czyste kryształy półprzewodników. Gordon Teal, chemik fizyczny z Teksasu, który w ramach doktoratu badał bezużyteczny wówczas german, podjął w latach trzydziestych XX wieku pracę w Bell Labs. Dowiedziawszy się o tranzystorze, nabrał przekonania, że ​​jego niezawodność i moc można znacznie poprawić, tworząc go z czystego monokryształu, a nie ze stosowanych wówczas mieszanin polikrystalicznych. Shockley odrzucił jego wysiłki jako marnowanie zasobów.

Jednak Teal nie ustępował i odniósł sukces, z pomocą inżyniera mechanika Johna Little'a, tworząc urządzenie, które wydobywa maleńkie ziarenko kryształu ze stopionego germanu. Gdy german ochładzał się wokół jądra, rozszerzał swoją strukturę krystaliczną, tworząc ciągłą i prawie czystą siatkę półprzewodnikową. Wiosną 1949 roku Teal i Little mogli już produkować kryształy na zamówienie, a testy wykazały, że byli daleko w tyle za swoimi polikrystalicznymi konkurentami. W szczególności dodane do nich drobne transportery mogły przetrwać w środku sto mikrosekund lub nawet dłużej (w porównaniu do nie więcej niż dziesięciu mikrosekund w innych próbkach kryształów).

Teraz Teal mógł sobie pozwolić na większe zasoby i zrekrutował do swojego zespołu kolejne osoby, wśród których był kolejny chemik fizyczny, który przyjechał do Bell Labs z Teksasu – Morgan Sparks. Zaczęli zmieniać stop, aby wytworzyć german typu p lub n, dodając kulki odpowiednich zanieczyszczeń. W ciągu roku udoskonalili technologię do tego stopnia, że ​​mogli wyhodować kanapkę z germanu npn bezpośrednio w stopie. I zadziałało dokładnie tak, jak przewidywał Shockley: sygnał elektryczny z materiału typu p modulował prąd elektryczny pomiędzy dwoma przewodnikami podłączonymi do otaczających go elementów typu n.

Historia tranzystora, część 3: Nowe wielokrotności
Morgan Sparks i Gordon Teal przy stole warsztatowym w Bell Labs

Ten rozbudowany tranzystor złączowy przewyższa swojego poprzednika ze stykiem jednopunktowym niemal pod każdym względem. W szczególności był bardziej niezawodny i przewidywalny, generował znacznie mniej hałasu (a przez to był bardziej czuły) i był niezwykle energooszczędny - zużywał milion razy mniej energii niż typowa lampa próżniowa. W lipcu 1951 roku Bell Labs zorganizowało kolejną konferencję prasową, aby ogłosić nowy wynalazek. Jeszcze zanim pierwszy tranzystor trafił na rynek, stał się już w zasadzie nieistotny.

A jednak to był dopiero początek. W 1952 roku General Electric (GE) ogłosił opracowanie nowego procesu wytwarzania tranzystorów złączowych, metody termojądrowej. W jego ramach dwie kulki indu (dawcy typu p) zostały stopione po obu stronach cienkiego plasterka germanu typu n. Proces ten był prostszy i tańszy niż rosnące złącza w stopie; taki tranzystor dawał mniejszy opór i obsługiwał wyższe częstotliwości.

Historia tranzystora, część 3: Nowe wielokrotności
Tranzystory wyhodowane i stopione

W następnym roku Gordon Teal zdecydował się wrócić do rodzinnego stanu i podjął pracę w Texas Instruments (TI) w Dallas. Firma została założona jako Geophysical Services, Inc. i początkowo produkowała sprzęt do poszukiwań ropy naftowej. TI otworzyła w czasie wojny oddział elektroniki i obecnie wkracza na rynek tranzystorów na licencji Western Electric (oddział produkcyjny Bell Labs).

Teal przywiózł ze sobą nowe umiejętności zdobyte w laboratoriach: zdolność do wzrostu i stop monokryształy krzemu. Najbardziej oczywistą słabością germanu była jego wrażliwość na temperaturę. Pod wpływem ciepła atomy germanu w krysztale szybko oddają wolne elektrony i w coraz większym stopniu zamieniają się w przewodnik. W temperaturze 77°C przestał działać jak tranzystor. Głównym celem sprzedaży tranzystorów było wojsko – potencjalny konsument o małej wrażliwości na cenę i ogromnym zapotrzebowaniu na stabilne, niezawodne i kompaktowe komponenty elektroniczne. Jednakże wrażliwy na temperaturę german nie byłby przydatny w wielu zastosowaniach wojskowych, szczególnie w lotnictwie i kosmonautyce.

Krzem był znacznie stabilniejszy, ale kosztem znacznie wyższej temperatury topnienia, porównywalnej ze stalą. Powodowało to ogromne trudności, biorąc pod uwagę, że do stworzenia wysokiej jakości tranzystorów potrzebne były bardzo czyste kryształy. Gorący stopiony krzem pochłaniał zanieczyszczenia z tygla, w którym się znajdował. Teelowi i jego zespołowi w TI udało się pokonać te wyzwania, korzystając z próbek ultraczystego krzemu firmy DuPont. W maju 1954 roku na konferencji Instytutu Inżynierii Radiowej w Dayton w stanie Ohio Teal wykazał, że nowe urządzenia krzemowe wyprodukowane w jego laboratorium działają nawet po zanurzeniu w gorącym oleju.

Udane start-upy

Wreszcie, jakieś siedem lat po wynalezieniu tranzystora, można było go wykonać z materiału, z którym stał się synonimem. Mniej więcej tyle samo czasu upłynie, zanim pojawią się tranzystory, które z grubsza będą przypominały kształt stosowany w naszych mikroprocesorach i układach pamięci.

W 1955 roku naukowcom z Bell Labs udało się nauczyć wytwarzania tranzystorów krzemowych przy użyciu nowej technologii domieszkowania - zamiast dodawać stałe kulki zanieczyszczeń do ciekłego stopu, wprowadzili do stałej powierzchni półprzewodnika dodatki gazowe (dyfuzja termiczna). Dzięki dokładnej kontroli temperatury, ciśnienia i czasu trwania zabiegu uzyskano dokładnie wymaganą głębokość i stopień domieszkowania. Większa kontrola nad procesem produkcyjnym zapewniła większą kontrolę nad właściwościami elektrycznymi produktu końcowego. Co ważniejsze, dyfuzja termiczna umożliwiła wytwarzanie produktu partiami — można było pokryć dużą płytkę krzemu, a następnie pociąć ją na tranzystory. Wojsko zapewniło fundusze Bell Laboratories, ponieważ uruchomienie produkcji wymagało wysokich kosztów początkowych. Potrzebowali nowego produktu do łącza radarowego wczesnego ostrzegania o ultrawysokiej częstotliwości („Linie rosy„), sieć arktycznych stacji radarowych zaprojektowanych do wykrywania sowieckich bombowców lecących z Bieguna Północnego, które były skłonne wydać 100 dolarów za tranzystor (były to czasy, gdy nowy samochód można było kupić za 2000 dolarów).

Stopowanie z fotolitografia, który kontrolował lokalizację zanieczyszczeń, otworzył możliwość wytrawienia całego obwodu w całości na jednym podłożu półprzewodnikowym - o tym pomyśleli jednocześnie Fairchild Semiconductor i Texas Instruments w 1959 roku.Technologia planarna” firmy Fairchild zastosował osadzanie chemiczne folii metalowych łączących styki elektryczne tranzystora. Wyeliminowało to potrzebę tworzenia ręcznego okablowania, obniżyło koszty produkcji i zwiększyło niezawodność.

Wreszcie w 1960 roku dwóch inżynierów Bell Labs (John Atalla i Davon Kahn) wdrożyło oryginalną koncepcję Shockleya dotyczącą tranzystora polowego. Cienka warstwa tlenku na powierzchni półprzewodnika była w stanie skutecznie tłumić stany powierzchniowe, powodując przenikanie pola elektrycznego z bramki aluminiowej do krzemu. Tak narodził się MOSFET [tranzystor polowy z tlenkiem metalu i półprzewodnikiem] (lub struktura MOS, z półprzewodnika z tlenkiem metalu), który okazał się tak łatwy do miniaturyzacji, a który nadal jest używany w prawie wszystkich współczesnych komputerach (co ciekawe , Atalla pochodzi z Egiptu, a Kang z Korei Południowej i praktycznie tylko ci dwaj inżynierowie z całej naszej historii nie mają europejskich korzeni).

Wreszcie, trzynaście lat po wynalezieniu pierwszego tranzystora, pojawiło się coś przypominającego tranzystor w twoim komputerze. Był łatwiejszy w produkcji i zużywał mniej energii niż tranzystor złączowy, ale dość wolno reagował na sygnały. Dopiero wraz z upowszechnieniem się wielkogabarytowych układów scalonych, składających się z setek lub tysięcy elementów umieszczonych na jednym chipie, na pierwszy plan wysunęły się zalety tranzystorów polowych.

Historia tranzystora, część 3: Nowe wielokrotności
Ilustracja z patentu na tranzystor polowy

Efekt pola był ostatnim znaczącym wkładem Bell Labs w rozwój tranzystora. Główni producenci elektroniki, tacy jak Bell Laboratories (ze swoimi Western Electric), General Electric, Sylvania i Westinghouse zgromadzili imponującą liczbę badań nad półprzewodnikami. W latach 1952–1965 same laboratoria Bell zarejestrowały ponad dwieście patentów na ten temat. Jednak rynek komercyjny szybko wpadł w ręce nowych graczy, takich jak Texas Instruments, Transitron i Fairchild.

Wczesny rynek tranzystorów był zbyt mały, aby przyciągnąć uwagę głównych graczy: około 18 milionów dolarów rocznie w połowie lat 1950. w porównaniu z całkowitym rynkiem elektroniki wartym 2 miliardy dolarów. Jednakże laboratoria badawcze tych gigantów służyły mimowolnie za obozy szkoleniowe gdzie młodzi naukowcy mogliby przyswoić wiedzę na temat półprzewodników, zanim zaczną sprzedawać swoje usługi mniejszym firmom. Kiedy w połowie lat 1960. rynek elektroniki lampowej zaczął się poważnie kurczyć, dla Bell Labs, Westinghouse i reszty było już za późno na konkurowanie z nowicjuszami.

Przejście komputerów na tranzystory

W latach pięćdziesiątych tranzystory zawładnęły światem elektroniki w czterech głównych obszarach. Pierwsze dwa to aparaty słuchowe i przenośne radia, w przypadku których niskie zużycie energii i wynikająca z tego długa żywotność baterii przeważają nad innymi względami. Trzecim było zastosowanie wojskowe. Armia amerykańska wiązała duże nadzieje z tranzystorami jako niezawodnymi, kompaktowymi komponentami, które można zastosować we wszystkim, od radiotelefonów polowych po rakiety balistyczne. Jednak na początku ich wydatki na tranzystory wydawały się bardziej zakładem na przyszłość technologii niż potwierdzeniem ich ówczesnej wartości. I wreszcie pojawiła się także informatyka cyfrowa.

W dziedzinie komputerów dobrze znane były wady przełączników lampowych, a niektórzy sceptycy jeszcze przed wojną wierzyli, że komputer elektroniczny nie może być urządzeniem praktycznym. Kiedy w jednym urządzeniu zebrano tysiące lamp, pożerały one prąd, wytwarzając ogromne ilości ciepła, a pod względem niezawodności można było polegać tylko na ich regularnym przepalaniu. Dlatego energooszczędny, chłodny i bezgwintowy tranzystor stał się wybawicielem producentów komputerów. Jego wady jako wzmacniacza (na przykład głośniejszy sygnał wyjściowy) nie stanowiły takiego problemu, gdy był używany jako przełącznik. Jedyną przeszkodą były koszty, które z czasem zaczęły gwałtownie spadać.

Wszystkie wczesne amerykańskie eksperymenty z komputerami tranzystorowymi miały miejsce na skrzyżowaniu chęci wojska do zbadania potencjału obiecującej nowej technologii i chęci inżynierów do przejścia na ulepszone przełączniki.

Laboratoria Bell Labs zbudowały TRADIC dla Sił Powietrznych Stanów Zjednoczonych w 1954 roku, aby sprawdzić, czy tranzystory umożliwią zainstalowanie komputera cyfrowego na pokładzie bombowca, zastępując nawigację analogową i pomagając w znajdowaniu celów. Laboratorium MIT Lincoln opracowało komputer TX-0 w ramach szeroko zakrojonego projektu obrony powietrznej w 1956 roku. W maszynie zastosowano inny wariant tranzystora z barierą powierzchniową, dobrze przystosowany do szybkich obliczeń. Philco zbudował swój komputer SOLO w ramach kontraktu z Marynarką Wojenną (a właściwie na zlecenie NSA), kończąc go w 1958 roku (z wykorzystaniem innego wariantu tranzystora z barierą powierzchniową).

W Europie Zachodniej, mniej wyposażonej w zasoby podczas zimnej wojny, sytuacja była zupełnie inna. Maszyny takie jak komputer tranzystorowy Manchester, Kadet Harwella (inna nazwa inspirowana projektem ENIAC, pisana od tyłu) i Austrian Mailüfterl były projektami pobocznymi, które wykorzystywały zasoby, jakie udało im się zgromadzić ich twórcy – w tym tranzystory jednopunktowe pierwszej generacji.

Istnieje wiele kontrowersji wokół tytułu pierwszego komputera wykorzystującego tranzystory. Wszystko sprowadza się oczywiście do wyboru właściwych definicji słów takich jak „pierwszy”, „tranzystor” i „komputer”. W każdym razie wiemy, gdzie kończy się ta historia. Komercjalizacja komputerów tranzystorowych rozpoczęła się niemal natychmiast. Z roku na rok komputery za tę samą cenę stawały się coraz potężniejsze, a komputery o tej samej mocy tańsze, a proces ten wydawał się tak nieubłagany, że został wyniesiony do rangi prawa, obok grawitacji i zachowania energii. Czy musimy się kłócić o to, który kamyk upadł jako pierwszy?

Skąd pochodzi prawo Moore’a?

Gdy zbliżamy się do końca historii przełącznika, warto zadać sobie pytanie: co było przyczyną tego załamania? Dlaczego prawo Moore’a istnieje (lub istniało – porozmawiamy o tym innym razem)? Nie ma prawa Moore'a dla samolotów i odkurzaczy, tak jak nie ma prawa Moore'a dla lamp próżniowych i przekaźników.

Odpowiedź składa się z dwóch części:

  1. Właściwości logiczne przełącznika jako kategorii artefaktu.
  2. Możliwość wykorzystania procesów czysto chemicznych do produkcji tranzystorów.

Najpierw o istocie przełącznika. Właściwości większości artefaktów muszą spełniać szeroki zakres bezlitosnych ograniczeń fizycznych. Samolot pasażerski musi utrzymać łączny ciężar wielu osób. Odkurzacz musi być w stanie zassać określoną ilość brudu w określonym czasie z określonego obszaru fizycznego. Samoloty i odkurzacze byłyby bezużyteczne, gdyby zostały zredukowane do nanoskali.

Przełącznik, automatyczny przełącznik, którego nigdy nie dotykała ludzka ręka, ma znacznie mniej ograniczeń fizycznych. Musi mieć dwa różne stany i musi być w stanie komunikować się z innymi podobnymi przełącznikami, gdy ich stany się zmienią. Oznacza to, że wszystko, co powinien móc zrobić, to włączać i wyłączać. Co jest takiego specjalnego w tranzystorach? Dlaczego inne typy przełączników cyfrowych nie doświadczyły tak wykładniczej poprawy?

Tutaj dochodzimy do drugiego faktu. Tranzystory można wytwarzać za pomocą procesów chemicznych bez interwencji mechanicznej. Od samego początku kluczowym elementem produkcji tranzystorów było wykorzystanie domieszek chemicznych. Potem przyszedł proces planarny, który wyeliminował ostatni mechaniczny etap produkcji – mocowanie drutów. Dzięki temu pozbył się ostatniego fizycznego ograniczenia miniaturyzacji. Tranzystory nie musiały już być wystarczająco duże, aby pomieścić ludzkie palce lub jakiekolwiek urządzenie mechaniczne. Wszystko to zostało wykonane za pomocą prostej chemii, na niewyobrażalnie małą skalę: kwas do wytrawiania, światło do kontrolowania, które części powierzchni będą odporne na trawienie, oraz para do wprowadzania zanieczyszczeń i metalicznych warstw do wytrawionych ścieżek.

Dlaczego miniaturyzacja jest w ogóle konieczna? Zmniejszenie rozmiaru dało całą galaktykę przyjemnych efektów ubocznych: zwiększoną prędkość przełączania, mniejsze zużycie energii i koszt poszczególnych kopii. Te potężne zachęty skłoniły wszystkich do poszukiwania sposobów dalszego ograniczenia liczby zmian. Przemysł półprzewodników przeszedł od produkcji przełączników wielkości paznokcia do pakowania dziesiątek milionów przełączników na milimetr kwadratowy w ciągu życia jednego człowieka. Od żądania ośmiu dolarów za jeden przełącznik do oferowania dwudziestu milionów przełączników za dolara.

Historia tranzystora, część 3: Nowe wielokrotności
Układ pamięci Intel 1103 z 1971 r. Pojedyncze tranzystory, o wielkości zaledwie kilkudziesięciu mikrometrów, nie są już widoczne gołym okiem. I od tego czasu spadły kolejny tysiąc razy.

Co jeszcze warto przeczytać:

  • Ernest Bruan i Stuart MacDonald, Rewolucja w miniaturze (1978)
  • Michael Riordan i Lillian Hoddeson, Kryształowy ogień (1997)
  • Joel Shurkin, Złamany geniusz (1997)

Źródło: www.habr.com

Dodaj komentarz