Historia de Internet: la era de la fragmentación; parte 1: factor de carga

Historia de Internet: la era de la fragmentación; parte 1: factor de carga

A principios de la década de 1980, se habían sentado las bases de lo que hoy conocemos como “Internet” (sus protocolos centrales se habían desarrollado y probado en el campo), pero el sistema permaneció cerrado, bajo el control casi completo de una sola entidad, los Estados Unidos. Departamento de Defensa. Esto pronto cambiará: el sistema se ampliará a todos los departamentos de informática de diferentes institutos utilizando CSNET. La red continuaría creciendo en los círculos académicos antes de abrirse finalmente por completo al uso comercial general en la década de 1990.

Pero que Internet se convirtiera en el centro mismo del mundo digital venidero, la tan promocionada “comunidad de la información”, no era del todo obvio en los años ochenta. Incluso para las personas que habían oído hablar de él, siguió siendo sólo un experimento científico prometedor. Pero el resto del mundo no se quedó quieto, conteniendo la respiración, esperando su llegada. En cambio, una variedad de opciones compitieron por dinero y atención para brindar acceso a servicios en línea a las masas.

Computadoras personales

Alrededor de 1975, los avances en la fabricación de semiconductores llevaron a la aparición de un nuevo tipo de computadora. Unos años antes, los ingenieros habían descubierto cómo integrar la lógica básica de procesamiento de datos en un solo microchip: el microprocesador. Empresas como Intel han comenzado a ofrecer memorias de corto plazo de alta velocidad en chips para reemplazar la memoria de núcleo magnético de generaciones anteriores de computadoras. Como resultado, las partes más importantes y caras de la computadora cayeron bajo la influencia de la ley de Moore, que en las décadas siguientes redujo constantemente el costo de los chips de procesador y la memoria. A mediados de la década, este proceso ya había reducido tanto el costo de estos componentes que un miembro de la clase media estadounidense bien podría considerar comprar y ensamblar su propia computadora. Estas máquinas pasaron a denominarse microcomputadoras (o, a veces, computadoras personales).

Hubo una lucha feroz por el derecho a ser llamado la primera computadora personal. Algunos consideraban que el LINC de Wes Clark o el TX-0 de los Laboratorios Lincoln eran tales; al fin y al cabo, sólo podían ser utilizados de forma interactiva por una persona. Si dejamos de lado las cuestiones de primacía, entonces cualquier candidato al primer lugar, si evaluamos la secuencia histórica de los acontecimientos, está obligado a perderlo ante un campeón obvio. Ninguna otra máquina logró el efecto catalítico que el MITS Altair 8800 produjo en la explosión de popularidad de las microcomputadoras a finales de los años 1970.

Historia de Internet: la era de la fragmentación; parte 1: factor de carga
Altair 8800 sobre un módulo adicional con unidad de 8"

Altair se convirtió en el cristal semilla de la comunidad electrónica. Convenció a los aficionados de que una persona podía construir su propia computadora a un precio razonable, y estos aficionados comenzaron a formar comunidades para discutir sus nuevas máquinas, como el Homebrew Computer Club en Menlo Park. Estas células de aficionados lanzaron una ola mucho más poderosa de microcomputadoras comerciales, basadas en máquinas producidas en masa que no requerían conocimientos de electrónica, como el Apple II y el Radio Shack TRS-80.

En 1984, el 8% de los hogares estadounidenses poseían su propia computadora, lo que equivalía a aproximadamente siete millones de coches. Mientras tanto, las empresas adquirían sus propias flotas de computadoras personales a un ritmo de cientos de miles de unidades por año, en su mayoría IBM 5150 y sus clones. En el segmento de usuario único, más caro, había un mercado creciente para estaciones de trabajo de Silicon Graphics y Sun Microsystems, computadoras más potentes con pantallas gráficas avanzadas y equipos de red destinados a científicos, ingenieros y otros profesionales técnicos.

Estas máquinas no podrían ser invitadas al sofisticado mundo de ARPANET. Sin embargo, muchos de sus usuarios querían tener acceso a la prometida fusión de computadoras y comunicaciones que los teóricos habían estado pregonando en la prensa popular desde el artículo de Taylor y Licklider de 1968 "La computadora como dispositivo de comunicación" y algunos incluso antes. En 1966, el científico John McCarthy prometió en Scientific American que “la tecnología ya demostrada es suficiente para imaginar consolas de computadora apareciendo en cada hogar, conectadas a computadoras públicas por teléfono”. Afirmó que es simplemente imposible enumerar la gama de servicios que ofrece un sistema de este tipo, pero dio varios ejemplos: “Todos tendrán acceso a la Biblioteca del Congreso y de mejor calidad que la que tienen ahora los bibliotecarios. Estarán disponibles informes completos de los acontecimientos actuales, ya sean resultados de béisbol, el índice de smog de Los Ángeles o una descripción de la 178ª reunión de la Comisión de Armisticio de Corea. Los impuestos sobre la renta se calcularán automáticamente mediante la acumulación continua de registros de ingresos, deducciones, contribuciones y gastos”.

Los artículos de la literatura popular describían las posibilidades del correo electrónico, los juegos digitales y todo tipo de servicios, desde consultas legales y médicas hasta compras en línea. ¿Pero cómo será exactamente todo esto? Muchas respuestas resultaron estar lejos de la verdad. Mirando hacia atrás, esa época parece un espejo roto. Todos los servicios y conceptos que caracterizaron la Internet comercial de la década de 1990 (y muchos más) surgieron en la década de 1980, pero en fragmentos, dispersos en docenas de sistemas diferentes. Con algunas excepciones, estos sistemas no se cruzaron y se mantuvieron separados. No había forma de que los usuarios de un sistema interactuaran o se comunicaran con los usuarios de otro, por lo que los intentos de conseguir que más usuarios ingresaran a cualquiera de los sistemas fueron en gran medida Juego de suma cero.

En este artículo, analizaremos un subconjunto de los participantes en este nuevo acaparamiento de tierras digitales: las empresas que venden acceso compartido, tratando de ingresar a un nuevo mercado con condiciones atractivas.

factor de carga

En 1892, Samuel Insall, un protegido Thomas Edison, se fue al oeste para encabezar una nueva división del imperio eléctrico de Edison, la Chicago Edison Company. En este puesto, consolidó muchos de los principios clave de la gestión moderna de servicios públicos, en particular el concepto de factor de carga, calculado como la carga promedio en un sistema eléctrico dividida por la carga más alta. Cuanto mayor sea el factor de carga, mejor, ya que cualquier desviación de la relación ideal de 1/1 representa un desperdicio: fondos excedentes que se necesitan para manejar las cargas máximas, pero que están inactivos durante las caídas del cronograma. Insal decidió llenar los vacíos en la curva de demanda desarrollando nuevas clases de consumidores que usarían electricidad en diferentes momentos del día (o incluso en diferentes estaciones), incluso si eso significaba venderles electricidad con descuento. En los primeros tiempos del suministro de electricidad, se utilizaba principalmente para iluminar las casas y, en su mayor parte, por la noche. Por ello, Insal comenzó a promover el uso de la electricidad en la producción industrial, incrementando su consumo diario. Esto dejaba vacíos en las mañanas y en las tardes, por lo que convenció al sistema de tránsito de Chicago para que convirtiera sus tranvías a energía eléctrica. De esta manera, Insal maximizó el valor de su capital invertido, aunque en ocasiones tuvo que vender electricidad con descuento.

Historia de Internet: la era de la fragmentación; parte 1: factor de carga
Insall en 1926, cuando su foto apareció en la portada de la revista Time.

Los mismos principios se aplican a la inversión en computadoras casi un siglo después, y fue el deseo de equilibrar la carga, lo que llevó a ofrecer descuentos durante las horas de menor actividad, lo que dio lugar a dos nuevos servicios en línea para microcomputadoras, lanzados casi simultáneamente en el verano. de 1979: CompuServe y The Source.

CompuServe

En 1969, la recién formada Golden United Life Insurance Company en Columbus, Ohio, incorporó una subsidiaria, Compu-Serv Network. El fundador de Golden United quería crear la empresa de alta tecnología más avanzada con mantenimiento de registros computarizados, por lo que contrató a un joven estudiante de posgrado en ciencias de la computación, John Goltz, para liderar el proyecto. Sin embargo, un gerente de ventas de DEC convenció a Goltz para que comprara una PDP-10, una máquina costosa cuyas capacidades informáticas excedían significativamente las necesidades actuales de Golden United. La idea detrás de Compu-Serv era convertir este error en una oportunidad vendiendo el exceso de potencia informática a clientes que pudieran conectarse al PDP-10 desde una terminal remota. A finales de la década de 1960, este modelo de tiempo compartido y venta de servicios informáticos estaba ganando impulso y Golden United quería una parte del pastel. En la década de 1970, la empresa se dividió en su propia entidad, pasó a llamarse CompuServe y creó su propia red de conmutación de paquetes para ofrecer acceso nacional de bajo costo a los centros de computación en Columbus.

El mercado nacional no sólo le dio a la empresa acceso a más clientes potenciales, sino que también amplió la curva de demanda de tiempo de computadora, distribuyéndola en cuatro zonas horarias. Sin embargo, todavía había una gran brecha entre el final de la jornada laboral en California y el comienzo de la jornada laboral en la costa este, sin mencionar el fin de semana. El director ejecutivo de CompuServe, Jeff Wilkins, vio una oportunidad para resolver este problema con la creciente flota de computadoras domésticas, ya que muchos de sus propietarios pasaban las tardes y los fines de semana dedicados a su pasatiempo electrónico. ¿Qué pasaría si les ofreciera acceso a correo electrónico, foros de mensajes y juegos en computadoras CompuServe a un precio reducido durante las noches y los fines de semana ($5 por hora, versus $12 por hora durante el horario comercial)? [en dinero corriente son $24 y $58 respectivamente].

Wilkins lanzó un servicio de prueba, llamándolo MicroNET (específicamente distanciado de la marca principal CompuServe), y después de un comienzo lento, gradualmente creció hasta convertirse en un proyecto increíblemente exitoso. Gracias a la red nacional de datos de CompuServe, la mayoría de los usuarios podían simplemente llamar a un número local para ingresar a MicroNET y así evitar facturas de llamadas de larga distancia, a pesar de que las computadoras con las que estaban contactando estaban en Ohio. Cuando el experimento se consideró exitoso, Wilkins abandonó la marca MicroNET y la transfirió a la marca CompuServe. La empresa pronto comenzó a ofrecer servicios diseñados específicamente para usuarios de microcomputadoras, como juegos y otro software que se podía comprar en línea.

Sin embargo, las plataformas de comunicación se convirtieron en los servicios más populares por un amplio margen. Para debates prolongados y publicación de contenidos, se crearon foros cuyos temas abarcaban desde la literatura hasta la medicina, desde la carpintería hasta la música pop. CompuServe generalmente dejaba los foros en manos de los propios usuarios, y la moderación y la administración estaban a cargo de algunos de ellos, que asumían el papel de “sysops”. La otra plataforma principal de mensajería fue CB Simulator, que Sandy Trevor, uno de los directores de CompuServe, creó en un fin de semana. Lleva el nombre del entonces popular pasatiempo de la radioafición (banda ciudadana, CB) y permitía a los usuarios participar en chats de texto en tiempo real en canales dedicados, un modelo similar a los programas de conversación disponibles en muchos sistemas de tiempo compartido. Muchos usuarios pasaron horas en CB Simulator charlando, haciendo amigos e incluso encontrando amantes.

La Fuente

Pisándole los talones a MicroNET hubo otro servicio en línea para microcomputadoras, lanzado apenas ocho días después, en julio de 1979. De hecho, estaba dirigido a casi la misma audiencia que el servicio de Geoff Wilkins, a pesar de que se desarrolló de manera completamente diferente. otro esquema. William von Meister, hijo de inmigrantes alemanes cuyo padre ayudó a organizar vuelos en dirigibles entre Alemania y Estados Unidos, fue un empresario en serie. Comenzó una nueva empresa tan pronto como perdió interés en la anterior o tan pronto como los inversores decepcionados dejaron de apoyarlo. Sería difícil imaginar a una persona más diferente a Wilkins. A mediados de la década de 1970, sus mayores éxitos fueron Telepost, un sistema de mensajería electrónica que enviaba mensajes electrónicamente a todo el país hasta la centralita más cercana y recorría la última milla como correo del día siguiente; el sistema TDX, que utilizaba computadoras para optimizar el enrutamiento de las llamadas telefónicas, reduciendo el costo de las llamadas de larga distancia para las grandes empresas.

Habiendo perdido, como era de esperar, el interés en TDX, von Meister se entusiasmó a finales de la década de 1970 con un nuevo proyecto, Infocast, que quería lanzar en McClean, Virginia. Era esencialmente una extensión del concepto Telepost, solo que en lugar de usar la oficina de correos para entregar el mensaje en la última milla, usaría la frecuencia de banda lateral FM (esta tecnología envía el nombre de la estación, el nombre del artista y el título de la canción a las radios modernas) para entregar datos digitales a terminales de computadora. En particular, planeaba ofrecer esto a empresas altamente distribuidas geográficamente que tenían muchas ubicaciones que necesitaban actualizaciones periódicas de información desde una oficina central: bancos, compañías de seguros, tiendas de comestibles.

Historia de Internet: la era de la fragmentación; parte 1: factor de carga
Bill von Meister

Sin embargo, lo que von Meister realmente quería crear era una red nacional de entrega de datos a hogares a través de terminales para millones, no miles, de personas. Sin embargo, una cosa es convencer a una empresa comercial de que gaste 1000 dólares en un receptor y terminal de radio FM especial, y otra pedir a los consumidores privados que hagan lo mismo. Así que von Meister buscó otras formas de llevar noticias, información meteorológica y otras cosas a los hogares; y encontró este método en los cientos de miles de microcomputadoras que proliferaban en las oficinas y hogares estadounidenses, apareciendo en hogares que ya estaban equipados con líneas telefónicas. Se asoció con Jack Taub, un hombre de negocios rico y bien conectado al que le gustó tanto la idea que quiso invertir en ella. Taub y von Meister primero llamaron a su nuevo servicio CompuCom, en la forma típica en que las empresas informáticas de la época cortaban y encadenaban palabras, pero luego se les ocurrió un nombre más abstracto e ideológico: The Source.

El principal problema al que se enfrentaron fue la falta de infraestructura técnica capaz de implementar esta idea. Para conseguirlo, firmaron un acuerdo con dos empresas cuyos recursos combinados eran comparables a los de CompuServe. Tenían computadoras de tiempo compartido y una red de datos nacional. Ambos recursos estaban prácticamente inactivos por las tardes y los fines de semana. La energía informática fue proporcionada por Dialcom, que tenía su sede a lo largo del río Potomac en Silver Spring, Maryland. Al igual que CompuServe, comenzó en 1970 como proveedor de servicios informáticos de tiempo compartido, aunque a finales de la década ofrecía una variedad de otros servicios. Por cierto, fue gracias al terminal Dialcom que conocí por primera vez las computadoras. Eric Emerson Schmidt, futuro presidente de la junta directiva y director ejecutivo de Google. La infraestructura de comunicaciones estuvo a cargo de Telenet, una red de conmutación de paquetes escindida de la empresa a principios de la década. Bolt, Beranek y Newman, BBN. Al pagar acceso con descuento a los servicios de Dialcom y Telenet durante las horas de menor actividad, Taub y von Meister pudieron ofrecer acceso a The Source por $2,75 por hora las noches y los fines de semana con un pago inicial de $100 (es decir, $13 por hora y un pago inicial de $480). en dólares de hoy).

Además del sistema de pago, la principal diferencia entre The Source y CompuServe fueron las expectativas de los usuarios sobre el uso de su sistema. Los primeros servicios de CompuServe incluyeron correo electrónico, foros, CB y uso compartido de software. Se suponía que los usuarios crearían independientemente sus propias comunidades y construirían sus propias superestructuras sobre el hardware y los programas subyacentes, tal como lo hacen los usuarios corporativos de sistemas de tiempo compartido. Taub y von Meister no tenían experiencia con este tipo de sistemas. Su plan de negocios se basaba en proporcionar una gran cantidad de información a los consumidores profesionales de alto nivel: la base de datos del New York Times, noticias de United Press International, información bursátil de Dow Jones, pasajes aéreos, reseñas de restaurantes locales, precios del vino. Quizás la característica más destacada fue que los usuarios de The Source fueron recibidos con un menú en pantalla de opciones disponibles, mientras que los usuarios de CompuServe fueron recibidos con una línea de comando.

De acuerdo con las diferencias personales entre Wilkins y von Meister, el lanzamiento de The Source fue un acontecimiento tan grande como el silencioso lanzamiento de MicroNET. Isaac Asimov fue invitado al primer evento para que pudiera anunciar personalmente cómo la llegada de la ciencia ficción se convirtió en un hecho científico. Y, como es típico de von Meister, su mandato en The Source no duró mucho. La empresa enfrentó inmediatamente dificultades financieras debido al grave exceso de gastos sobre ingresos. Taub y su hermano tenían una participación lo suficientemente grande en el negocio como para expulsar a von Meister, y en octubre de 1979, apenas unos meses después de la fiesta de lanzamiento, hicieron precisamente eso.

El declive de los sistemas de tiempo compartido

La última empresa en ingresar al mercado de microcomputadoras utilizando la lógica del factor de carga es General Electric Information Services (GEIS), una división del gigante de fabricación eléctrica. GEIS se fundó a mediados de la década de 1960, cuando GE todavía intentaba competir con otros en la fabricación de computadoras, como parte de un intento de desalojar a IBM de su posición dominante en las ventas de computadoras. GE intentó convencer a los clientes de que, en lugar de comprar computadoras a IBM, podían alquilarlas a GE. Este esfuerzo tuvo poco impacto en la participación de mercado de IBM, pero la compañía ganó suficiente dinero para seguir invirtiendo en él hasta la década de 1980, cuando GEIS ya poseía una red de datos mundial y dos grandes centros de computación en Cleveland, Ohio, y en Europa.

En 1984, alguien de GEIS notó lo bien que estaban creciendo The Source y CompuServe (este último ya tenía más de 100 usuarios en ese momento) y se le ocurrió una manera de hacer que los centros de datos funcionaran fuera del horario comercial principal. Para crear su propia oferta para el usuario, contrataron al veterano de CompuServe, Bill Lowden. Lowden, irritado por la forma en que los ejecutivos de ventas corporativos estaban empezando a intentar entrar en el cada vez más atractivo negocio de consumo, dejó la empresa con un grupo de colegas para intentar crear su propio servicio en línea en Atlanta, llamándolo Georgia OnLine. Intentaron convertir su falta de acceso a una red de datos nacional en una ventaja ofreciendo servicios adaptados al mercado local, como publicidad especial e información sobre eventos, pero la empresa fracasó, por lo que Lowden quedó satisfecho con la oferta de GEIS.

Louden llamó al nuevo servicio GEnie. genio - genio] - este era un acrónimo de General Electric Network for Information Exchange [red de intercambio de información de GE]. Ofrecía todos los servicios desarrollados en ese momento en The Source y CompuServe: chat (simulador CB), foros de mensajes, noticias, información meteorológica y deportiva.

GEnie fue el último servicio de informática personal que surgió de la industria informática de tiempo compartido y la lógica del factor de carga. A medida que el número de computadoras pequeñas aumentó a millones, los servicios digitales para el mercado masivo comenzaron a convertirse gradualmente en un negocio atractivo en sí mismos y ya no eran simplemente una forma de optimizar el capital existente. En sus inicios, The Source y CompuServe eran pequeñas empresas que en 1980 prestaban servicios a unos pocos miles de suscriptores. Diez años más tarde, millones de suscriptores pagaban cuotas mensuales en Estados Unidos, y CompuServe estaba a la vanguardia de este mercado, habiendo absorbido a su antiguo competidor, The Source. Este mismo proceso ha hecho que el acceso al tiempo compartido sea menos atractivo para las empresas: ¿por qué pagar por las comunicaciones y el acceso a la computadora remota de otra persona cuando se ha vuelto tan fácil equipar su propia oficina con máquinas poderosas? Y hasta la aparición de los canales de fibra óptica, que redujeron drásticamente el coste de las comunicaciones, esta lógica no cambió de dirección hacia lo contrario.

Sin embargo, este mercado no se limitaba a las empresas que ofrecían acceso a tiempo compartido. En lugar de comenzar con grandes computadoras centrales y encontrar formas de llevarlas al límite, otras compañías comenzaron con equipos que ya estaban en los hogares de millones de personas y buscaron formas de conectarlos a una computadora.

que mas leer

  • Michael A. Banks, De camino a la Web (2008)
  • Jimmy Maher, “Una red antes de la web”, filfre.net (2017)

Fuente: habr.com

Añadir un comentario