Historia Internetu: era fragmentacji; część 1: Współczynnik obciążenia

Historia Internetu: era fragmentacji; część 1: Współczynnik obciążenia

Na początku lat 1980. położono podwaliny pod to, co znamy dziś jako „Internet”, — opracowano jego podstawowe protokoły i przetestowano je w praktyce, ale system pozostał zamknięty i znajdował się pod niemal całkowitą kontrolą jednego podmiotu, Stanów Zjednoczonych. Departament Obrony. To się wkrótce zmieni – system zostanie rozszerzony na wszystkie katedry informatyki różnych instytutów korzystających z CSNET. Sieć nadal rozwijała się w kręgach akademickich, zanim w latach 1990. XX wieku została całkowicie otwarta na powszechne wykorzystanie komercyjne.

Ale to, że Internet stanie się samym centrum nadchodzącego cyfrowego świata, tak reklamowanej „wspólnoty informacyjnej”, nie było wcale oczywiste w latach 1980. Nawet dla ludzi, którzy o tym słyszeli, pozostał on jedynie obiecującym eksperymentem naukowym. Ale reszta świata nie stała w miejscu, wstrzymując oddech, czekając na jego przybycie. Zamiast tego różne opcje rywalizowały o pieniądze i uwagę w celu zapewnienia masom dostępu do usług online.

Komputery osobiste

Około 1975 roku przełom w produkcji półprzewodników doprowadził do pojawienia się nowego typu komputera. Kilka lat wcześniej inżynierowie wymyślili, jak upchnąć podstawową logikę przetwarzania danych w jednym mikrochipie – mikroprocesorze. Firmy takie jak Intel zaczęły oferować szybką pamięć krótkotrwałą na chipach, która ma zastąpić pamięć z rdzeniem magnetycznym w komputerach poprzednich generacji. W rezultacie najważniejsze i najdroższe części komputera znalazły się pod wpływem prawa Moore'a, które w kolejnych dziesięcioleciach stale obniżało koszty chipów procesorowych i pamięci. W połowie dekady proces ten obniżył już koszty tych komponentów do tego stopnia, że ​​członek amerykańskiej klasy średniej mógł z powodzeniem rozważyć zakup i złożenie własnego komputera. Takie maszyny zaczęto nazywać mikrokomputerami (lub czasami komputerami osobistymi).

Toczyła się zacięta walka o prawo do miana pierwszego komputera osobistego. Niektórzy uważali za takie urządzenia LINC Wesa Clarka czy TX-0 Lincolna Labs – w końcu interaktywnie mogła z nich korzystać tylko jedna osoba. Jeśli odłożymy na bok kwestie prymatu, to każdy kandydat na pierwsze miejsce, jeśli ocenimy historyczny ciąg wydarzeń, będzie zmuszony go stracić na rzecz jednego oczywistego mistrza. Żadna inna maszyna nie osiągnęła efektu katalitycznego, jaki wywołał MITS Altair 8800 podczas eksplozji popularności mikrokomputerów pod koniec lat siedemdziesiątych.

Historia Internetu: era fragmentacji; część 1: Współczynnik obciążenia
Altair 8800 stojący na dodatkowym module z napędem 8".

Altair stał się zalążkiem społeczności elektronicznej. Przekonał hobbystów, że można zbudować własny komputer za rozsądną cenę, i hobbyści ci zaczęli tworzyć społeczności, aby omawiać swoje nowe maszyny, takie jak Homebrew Computer Club w Menlo Park. Te komórki hobbystów wypuściły znacznie potężniejszą falę komercyjnych mikrokomputerów, opartych na maszynach produkowanych masowo, które nie wymagały umiejętności obsługi elektroniki, takich jak Apple II i Radio Shack TRS-80.

Do 1984 r. 8% gospodarstw domowych w USA posiadało własny komputer, co stanowiło ok siedem milionów samochodów. Tymczasem przedsiębiorstwa nabywały własne floty komputerów osobistych w tempie setek tysięcy sztuk rocznie – głównie IBM 5150 i ich klony. W droższym segmencie jednoużytkownikowym rozwijał się rynek stacji roboczych firm Silicon Graphics i Sun Microsystems, mocniejszych komputerów z zaawansowanymi wyświetlaczami graficznymi oraz sprzętu sieciowego przeznaczonego do użytku przez naukowców, inżynierów i innych specjalistów technicznych.

Takich maszyn nie można było zaprosić do wyrafinowanego świata ARPANET. Jednak wielu ich użytkowników chciało dostępu do obiecanego połączenia komputerów i komunikacji, o którym teoretycy trąbili w prasie popularnej od czasu publikacji artykułu Taylora i Licklidera z 1968 r. „Komputer jako urządzenie komunikacyjne”, a niektórzy nawet wcześniej. Już w 1966 roku naukowiec John McCarthy obiecał w czasopiśmie „Scientific American”, że „zademonstrowana już technologia wystarczy, aby wyobrazić sobie konsole komputerowe pojawiające się w każdym domu, połączone telefonem z komputerami publicznymi”. Stwierdził, że nie sposób wymienić zakresu usług oferowanych przez taki system, ale podał kilka przykładów: „Każdy będzie miał dostęp do Biblioteki Kongresu, i to lepszej jakości niż ta, którą mają obecnie bibliotekarze. Dostępne będą pełne raporty z bieżących wydarzeń, czy to wyniki baseballu, indeks smogu w Los Angeles, czy opis 178. posiedzenia Koreańskiej Komisji ds. Rozejmu. Podatki dochodowe będą obliczane automatycznie na podstawie stale gromadzonej ewidencji dochodów, odliczeń, składek i wydatków.

Artykuły w literaturze popularnej opisywały możliwości poczty elektronicznej, gier cyfrowych i wszelkiego rodzaju usług od konsultacji prawnych i medycznych po zakupy online. Ale jak to wszystko dokładnie będzie wyglądać? Wiele odpowiedzi okazało się dalekich od prawdy. Patrząc wstecz, ta era wygląda jak rozbite lustro. Wszystkie usługi i koncepcje charakteryzujące komercyjny Internet lat 1990. XX wieku – i wiele innych – pojawiły się w latach 1980., ale we fragmentach, rozproszonych w dziesiątkach różnych systemów. Z pewnymi wyjątkami systemy te nie przecinały się i wyróżniały. Użytkownicy jednego systemu nie mogli wchodzić w interakcję ani komunikować się z użytkownikami innego, więc próby przyciągnięcia większej liczby użytkowników do któregokolwiek systemu były w dużej mierze gra o sumie zerowej.

W tym artykule przyjrzymy się jednej podgrupie uczestników tego nowego cyfrowego zawłaszczania ziemi – firmom sprzedającym dostęp współdzielony, próbującym wejść na nowy rynek na atrakcyjnych warunkach.

Współczynnik obciążenia

W 1892 r. Samuel Insall, protegowany Tomasz Edison, udał się na zachód, aby stanąć na czele nowego oddziału imperium elektrycznego Edisona, Chicago Edison Company. Na tym stanowisku skonsolidował wiele kluczowych zasad współczesnego zarządzania mediami, w szczególności koncepcję współczynnika obciążenia – obliczanego jako średnie obciążenie systemu elektrycznego podzielone przez największe obciążenie. Im wyższy współczynnik obciążenia, tym lepiej, ponieważ każde odchylenie od idealnego współczynnika 1/1 oznacza marnotrawstwo – nadmiar środków potrzebnych do obsługi obciążeń szczytowych, ale pozostających bezczynnych podczas spadków w harmonogramie. Insall postanowił wypełnić luki w krzywej popytu, tworząc nowe klasy odbiorców, którzy będą korzystać z energii elektrycznej o różnych porach dnia (a nawet w różnych porach roku), nawet jeśli oznaczałoby to sprzedaż energii z rabatem. W początkach dostaw energii elektrycznej wykorzystywano ją głównie do oświetlania domów, przeważnie wieczorem. Dlatego Insal zaczął promować wykorzystanie energii elektrycznej w produkcji przemysłowej, zwiększając jej dzienne zużycie. Spowodowało to luki w godzinach porannych i wieczornych, więc przekonał system tranzytowy Chicago do konwersji tramwajów na energię elektryczną. W ten sposób Insal maksymalizował wartość zainwestowanego kapitału, mimo że czasami musiał sprzedawać energię elektryczną z dyskontem.

Historia Internetu: era fragmentacji; część 1: Współczynnik obciążenia
Insalla w 1926 roku, kiedy jego zdjęcie znalazło się na okładce magazynu Time

Prawie sto lat później te same zasady obowiązują przy inwestowaniu w komputery – i to właśnie chęć równoważenia obciążenia, prowadząca do oferowania zniżek poza godzinami szczytu, doprowadziła do powstania dwóch nowych usług online dla mikrokomputerów, uruchomionych niemal jednocześnie latem z 1979 r.: CompuServe i źródło.

CompuServe

W 1969 roku nowo utworzona firma Golden United Life Insurance Company w Columbus w stanie Ohio utworzyła spółkę zależną Compu-Serv Network. Założyciel Golden United chciał stworzyć najbardziej zaawansowaną, zaawansowaną technologicznie firmę ze skomputeryzowanym prowadzeniem dokumentacji, dlatego do kierowania projektem zatrudnił młodego absolwenta informatyki, Johna Goltza. Jednak kierownik sprzedaży z DEC namówił Goltza do zakupu PDP-10, drogiej maszyny, której możliwości obliczeniowe znacznie przekraczały obecne potrzeby Golden United. Ideą Compu-Serv było przekształcenie tego błędu w szansę poprzez sprzedaż nadwyżki mocy obliczeniowej klientom, którzy mogliby połączyć się z PDP-10 ze zdalnego terminala. Pod koniec lat sześćdziesiątych ten model podziału czasu i sprzedaży usług komputerowych nabierał rozpędu, a Golden United zapragnęło kawałka tortu. W latach 1960. firma podzieliła się na własny podmiot, przemianowana na CompuServe i stworzyła własną sieć z komutacją pakietów, aby zapewnić tani, ogólnokrajowy dostęp do centrów komputerowych w Columbus.

Rynek krajowy nie tylko zapewnił firmie dostęp do większej liczby potencjalnych klientów, ale także rozszerzył krzywą popytu na czas komputerowy, rozkładając go na cztery strefy czasowe. Jednak pomiędzy końcem dnia pracy w Kalifornii a początkiem dnia pracy na wschodnim wybrzeżu nadal istniała duża różnica, nie wspominając o weekendzie. Dyrektor generalny CompuServe, Jeff Wilkins, dostrzegł szansę na rozwiązanie tego problemu w rosnącej flocie komputerów domowych, ponieważ wielu ich właścicieli spędzało wieczory i weekendy na swoim elektronicznym hobby. Co by było, gdybyś zaoferował im dostęp do poczty e-mail, forów dyskusyjnych i gier na komputerach CompuServe po obniżonej cenie wieczorami i w weekendy (5 USD za godzinę w porównaniu z 12 USD za godzinę w godzinach pracy)? [w pieniądzu bieżącym są to odpowiednio 24 i 58 dolarów].

Wilkins uruchomił usługę próbną, nazywając ją MicroNET (szczególnie w oddaleniu od głównej marki CompuServe), która po powolnym początku stopniowo przekształciła się w niezwykle udany projekt. Dzięki krajowej sieci danych CompuServe większość użytkowników mogła po prostu zadzwonić pod numer lokalny, aby uzyskać dostęp do MicroNET i uniknąć w ten sposób rachunków za połączenia międzymiastowe, mimo że rzeczywiste komputery, z którymi się kontaktowali, znajdowały się w Ohio. Gdy eksperyment uznano za udany, Wilkins porzucił markę MicroNET i przeniósł ją na markę CompuServe. Firma wkrótce zaczęła oferować usługi przeznaczone specjalnie dla użytkowników mikrokomputerów, takie jak gry i inne oprogramowanie, które można było kupić online.

Jednak zdecydowanie najpopularniejszymi usługami stały się platformy komunikacyjne. Do długotrwałych dyskusji i zamieszczania treści służyły fora, których tematyka sięgała od literatury po medycynę, od obróbki drewna po muzykę pop. CompuServe zwykle pozostawiało fora samym użytkownikom, a moderacją i administracją zajmowała się część z nich, która pełniła rolę „sysopów”. Drugą główną platformą do przesyłania wiadomości był CB Simulator, który Sandy Trevor, jeden z dyrektorów CompuServe, stworzył w ciągu jednego weekendu. Został nazwany na cześć popularnego wówczas hobby, jakim było radio amatorskie (zespół obywatelski, CB) i umożliwiał użytkownikom prowadzenie rozmów tekstowych w czasie rzeczywistym na dedykowanych kanałach - model podobny do programów rozmów dostępnych w wielu systemach z podziałem czasu. Wielu użytkowników spędzało godziny w CB Simulator na czacie, zawieraniu przyjaźni, a nawet szukaniu kochanków.

Źródło

Zaraz po MicroNET pojawił się kolejny serwis internetowy dla mikrokomputerów, uruchomiony zaledwie osiem dni po nim, w lipcu 1979 roku. W rzeczywistości był skierowany do niemal tych samych odbiorców, co serwis Geoffa Wilkinsa, mimo że rozwijał się zupełnie inaczej. inny schemat. Seryjnym przedsiębiorcą był William von Meister, syn niemieckich imigrantów, którego ojciec pomagał w organizacji lotów sterowcami pomiędzy Niemcami a Stanami Zjednoczonymi. Rozpoczynał nowe przedsięwzięcie, gdy tylko stracił zainteresowanie starym lub gdy rozczarowani inwestorzy przestali go wspierać. Trudno byłoby sobie wyobrazić osobę bardziej różniącą się od Wilkinsa. W połowie lat 1970. jej największym sukcesem był Telepost, elektroniczny system przesyłania wiadomości, który wysyłał wiadomości drogą elektroniczną po całym kraju do najbliższej centrali telefonicznej i docierał do ostatniej mili jako poczta następnego dnia; system TDX, w którym komputery optymalizowały routing połączeń telefonicznych, redukując koszty połączeń międzymiastowych dla dużych przedsiębiorstw.

Po utracie zainteresowania TDX, co było do przewidzenia, pod koniec lat 1970. von Meister stał się entuzjastycznie nastawiony do nowego projektu Infocast, który chciał uruchomić w McClean w Wirginii. Było to zasadniczo rozwinięcie koncepcji Telepost, tyle że zamiast wykorzystywać pocztę do doręczenia wiadomości na ostatniej mili, wykorzystywałby częstotliwość pasma bocznego FM (technologia ta wysyła nazwę stacji, nazwisko artysty i tytuł utworu do nowoczesnych radioodbiorników) do dostarczać dane cyfrowe do terminali komputerowych. W szczególności planował zaoferować to przedsiębiorstwom o dużym zasięgu geograficznym, posiadającym wiele lokalizacji wymagających regularnej aktualizacji informacji z centrali – bankom, ubezpieczycielom, sklepom spożywczym.

Historia Internetu: era fragmentacji; część 1: Współczynnik obciążenia
Billa von Meistera

Jednak tak naprawdę von Meister chciał stworzyć ogólnokrajową sieć dostarczania danych do domów za pośrednictwem terminali dla milionów, a nie tysięcy ludzi. Jednak czym innym jest przekonanie przedsiębiorstwa komercyjnego do wydania 1000 dolarów na specjalny odbiornik radiowy FM i terminal, a czym innym zwrócenie się do prywatnych konsumentów, aby zrobili to samo. Dlatego von Meister zaczął szukać innych sposobów dostarczania do domów wiadomości, informacji o pogodzie i innych rzeczy; i odkrył tę metodę w setkach tysięcy mikrokomputerów, które rozrastały się w amerykańskich biurach i domach, pojawiając się w domach już wyposażonych w linie telefoniczne. Nawiązał współpracę z Jackiem Taubem, bogatym biznesmenem o dobrych kontaktach, któremu tak bardzo spodobał się ten pomysł, że zapragnął w niego zainwestować. Taub i von Meister najpierw nazwali swój nowy serwis CompuCom, w typowy dla ówczesnych firm komputerowych sposób wycinania i sznurowania słów, ale potem wymyślili bardziej abstrakcyjną i ideologiczną nazwę – Źródło.

Głównym problemem, przed jakim stanęli, był brak infrastruktury technicznej zdolnej do realizacji tego pomysłu. Aby to uzyskać, zawarli umowę z dwiema firmami, których łączne zasoby były porównywalne z zasobami CompuServe. Mieli komputery z podziałem czasu i krajową sieć danych. Obydwa te zasoby wieczorami i w weekendy były praktycznie nieczynne. Zasilanie komputerowe zapewniła firma Dialcom z siedzibą nad rzeką Potomac w Silver Spring w stanie Maryland. Podobnie jak CompuServe, rozpoczęła działalność w 1970 r. jako dostawca usług komputerowych z podziałem czasu, chociaż pod koniec dekady oferowała szereg innych usług. Swoją drogą to dzięki terminalowi Dialcom po raz pierwszy zetknąłem się z komputerami Erica Emersona Schmidta, przyszły prezes zarządu i dyrektor generalny Google. Infrastrukturę komunikacyjną zapewnił Telenet, sieć z komutacją pakietów wydzielona z firmy na początku dekady Bolta, Beranka i Newmana, BBN. Płacąc za dostęp do usług Dialcom i Telenet po obniżonej cenie poza godzinami szczytu, Taub i von Meister byli w stanie zaoferować dostęp do The Source za 2,75 dolara za godzinę w nocy i w weekendy przy wpłacie zaliczki w wysokości 100 dolarów (co daje 13 dolarów za godzinę i 480 dolarów zaliczki). w dzisiejszych dolarach).

Oprócz systemu płatności, główną różnicą pomiędzy The Source i CompuServe były oczekiwania użytkowników dotyczące korzystania z ich systemu. Najwcześniejsze usługi CompuServe obejmowały pocztę elektroniczną, fora, CB i udostępnianie oprogramowania. Założono, że użytkownicy będą niezależnie tworzyć własne społeczności i budować własne nadbudówki w oparciu o podstawowy sprzęt i programy – tak jak robią to korporacyjni użytkownicy systemów z podziałem czasu. Taub i von Meister nie mieli doświadczenia z takimi systemami. Ich biznesplan opierał się na dostarczaniu szerokiej gamy informacji profesjonalnym konsumentom z wyższej półki: bazy danych New York Times, wiadomości z United Press International, informacji o giełdach z Dow Jones, biletów lotniczych, recenzji lokalnych restauracji, cen win. Być może najbardziej charakterystyczną cechą było to, że użytkowników Source witało menu ekranowe z dostępnymi opcjami, podczas gdy użytkowników CompuServe witano wierszem poleceń.

Biorąc pod uwagę osobiste różnice między Wilkinsem i von Meisterem, uruchomienie The Source było równie wielkim wydarzeniem, jak ciche uruchomienie MicroNET. Na pierwsze wydarzenie zaproszono Isaaca Asimova, aby mógł osobiście ogłosić, w jaki sposób nadejście science fiction stało się faktem naukowym. I, co jest typowe dla von Meistera, jego staż w Źródle nie trwał długo. Firma natychmiast stanęła w obliczu trudności finansowych ze względu na poważną nadwyżkę wydatków nad przychodami. Taub i jego brat mieli wystarczająco duże udziały w tym biznesie, aby wyprzeć z niego von Meistera, i w październiku 1979 roku, zaledwie kilka miesięcy po przyjęciu inauguracyjnym, właśnie to zrobili.

Upadek systemów podziału czasu

Najnowszą firmą, która weszła na rynek mikrokomputerów wykorzystujących logikę współczynnika obciążenia, jest General Electric Information Services (GEIS), oddział giganta produkującego urządzenia elektryczne. Firma GEIS została założona w połowie lat sześćdziesiątych XX wieku, kiedy GE wciąż próbowała konkurować z innymi firmami w produkcji komputerów, próbując wyprzeć IBM z dominującej pozycji w sprzedaży komputerów. GE próbowało przekonać klientów, że zamiast kupować komputery od IBM, mogliby je wynajmować od GE. Wysiłki te miały niewielki wpływ na udział IBM w rynku, ale firma zarobiła wystarczająco dużo pieniędzy, aby inwestować w nią aż do lat 1960. XX wieku, kiedy to GEIS był już właścicielem ogólnoświatowej sieci danych i dwóch dużych centrów obliczeniowych w Cleveland w stanie Ohio i w Europie.

W 1984 roku ktoś w GEIS zauważył, jak dobrze rozwijają się The Source i CompuServe (ten ostatni miał już wówczas ponad 100 000 użytkowników) i wpadł na pomysł, aby centra danych działały poza głównymi godzinami pracy. Aby stworzyć własną ofertę dla użytkowników, zatrudnili weterana CompuServe, Billa Lowdena. Lowden, zirytowany sposobem, w jaki dyrektorzy sprzedaży korporacyjnej zaczęli próbować dostać się do coraz bardziej atrakcyjnego biznesu konsumenckiego, opuścił firmę z grupą współpracowników, aby spróbować stworzyć własny serwis internetowy w Atlancie, nazywając go Georgia OnLine. Próbowali przekuć brak dostępu do krajowej sieci danych w zaletę, oferując usługi dostosowane do lokalnego rynku, takie jak specjalne reklamy i informacje o wydarzeniach, ale firmie się to nie udało, więc Louden był zadowolony z oferty GEIS.

Louden nazwał nową usługę GEnie. dżin – dżin] – był to skrót od General Electric Network for Information Exchange [sieć wymiany informacji GE]. Oferował wszystkie usługi opracowane do tego czasu w The Source i CompuServe - chat (symulator CB), fora dyskusyjne, aktualności, informacje o pogodzie i sporcie.

GEnie to najnowsza usługa komputerów osobistych, która wyłoniła się z branży obliczeń z podziałem czasu i logiki współczynnika obciążenia. Wraz ze wzrostem liczby małych komputerów do milionów, usługi cyfrowe dla rynku masowego zaczęły stopniowo stawać się atrakcyjnym biznesem samym w sobie, a nie tylko sposobem na optymalizację istniejącego kapitału. Na początku The Source i CompuServe były małymi firmami obsługującymi kilka tysięcy abonentów w 1980 roku. Dziesięć lat później miliony abonentów płaciło miesięczne opłaty w USA, a CompuServe znajdował się na czele tego rynku, po wchłonięciu swojego byłego konkurenta, firmy The Source. Ten sam proces sprawił, że dostęp z podziałem czasu stał się mniej atrakcyjny dla firm – po co płacić za komunikację i dostęp do cudzego komputera zdalnego, skoro wyposażenie własnego biura w wydajne maszyny stało się tak łatwe? I aż do pojawienia się kanałów światłowodowych, które gwałtownie obniżyły koszty komunikacji, logika ta nie zmieniła swojego kierunku na przeciwny.

Jednak rynek ten nie ograniczał się do firm oferujących dostęp w ramach timesharingu. Zamiast zaczynać od dużych komputerów mainframe i szukać sposobów na wykorzystanie ich do granic możliwości, inne firmy zaczęły od sprzętu, który był już w domach milionów ludzi, i szukały sposobów na podłączenie go do komputera.

Co jeszcze przeczytać

  • Michael A. Banks, W drodze do sieci (2008)
  • Jimmy Maher, „Sieć przed siecią”, filfre.net (2017)

Źródło: www.habr.com

Dodaj komentarz