Historia de la informática
por Paul E. Ceruzzi
bbvaopenmind.com
No hay palabra de la que se haya abusado más al hablar de informática que "revolución". Si creemos lo que dicen la prensa y la televisión, cada modelo nuevo de chip, cada componente nuevo de software cambiarán nuestra vida de forma revolucionaria.
El efecto de la tecnología informática en la vida diaria del ciudadano de a pie ha sido revolucionario.
No hay palabra de la que se haya abusado más al hablar de informática que «revolución». Si creemos lo que dicen la prensa diaria y la televisión, cada modelo nuevo de chip, cada componente nuevo de software, cada nuevo adelanto en las redes sociales y cada modelo nuevo de teléfono móvil u otro dispositivo portátil cambiarán nuestra vida de forma revolucionaria. Unas semanas más tarde el objeto de esos reportajes curiosamente queda olvidado y pasa a sustituirse por un nuevo avance, el cual, se nos asegura, constituye, esta vez sí, el verdadero punto de inflexión.
Sin embargo es indiscutible que el efecto de la tecnología informática en la vida diaria del ciudadano de a pie ha sido revolucionario. Sólo con medir la capacidad de cálculo de estas máquinas, tomando como referencia la cantidad de datos que pueden almacenar y recuperar de su memoria interna, se pone de manifiesto un ritmo de progreso que ninguna otra tecnología, ni antigua ni moderna, ha alcanzado. No hace falta recurrir a los lenguajes especializados de ingenieros o programadores informáticos, pues la enorme cantidad de ordenadores y aparatos digitales que hay instalados en nuestros hogares y oficinas o que los consumidores llevan de un lado a otro por todo el mundo revela un ritmo de crecimiento parecido y que no da muestras de estar aminorando. Una medida aún más significativa nos la proporciona lo que estas máquinas son capaces de hacer. El transporte aéreo comercial, la recaudación de impuestos, la administración e investigación médica, la planificación y las operaciones militares; estas y muchísimas otras actividades llevan el sello indeleble del apoyo informático, sin el cual serían muy diferentes o, sencillamente, no existirían.
Al intentar resumir la historia de la informática a lo largo de las últimas décadas nos enfrentamos a la dificultad de escribir en medio de esta fulgurante evolución. Si queremos hacerlo con el rigor debido, habremos de reconocer que tiene sus raíces históricas en la base de la civilización, que en parte se ha caracterizado por la capacidad de las personas de manejar y almacenar información por medio de símbolos. Pero en ella también debemos recoger los rápidos avances y la difusión vertiginosa de que ha sido objeto desde 1945, lo que no es fácil, si queremos conservar simultáneamente la perspectiva histórica. Este artículo es un breve repaso de las personas, las máquinas, las instituciones y los conceptos fundamentales que constituyen la revolución informática tal y como la conocemos en la actualidad. Empieza con el ábaco —que además del primero por orden alfabético es, cronológicamente, uno de los primeros instrumentos de cálculo— y llega hasta el siglo xxi, en el que las redes de ordenadores personales se han convertido en algo habitual y en el que la potencia informática ha terminado por integrarse en minúsculos dispositivos portátiles.
Aunque los aparatos digitales siguen evolucionando a mayor velocidad que nunca, los ordenadores personales se han estancado. Sus componentes físicos se han estabilizado: un teclado (procedente de la famosa máquina de escribir de la década de 1890); una caja rectangular que contiene los circuitos electrónicos y la unidad de almacenamiento, y encima de ella, un terminal de visualización (heredero de la ya mítica pantalla de televisión de finales de la década de 1940). Lo mismo ha ocurrido con los circuitos electrónicos que hay en su interior, al margen de que cada año tengan mayor capacidad: durante los últimos treinta y cinco años han estado compuestos de circuitos integrados de silicio revestidos de tubos de plástico negro montados en paneles también de plástico. Los ordenadores portátiles dieron al traste con esta configuración, pero esencialmente son iguales. Tanto ingenieros como usuarios están de acuerdo en que su diseño físico presenta numerosos inconvenientes. Pensemos, por ejemplo, en las lesiones de los músculos de las manos que se producen por el uso excesivo de un teclado que se diseñó hace un siglo. Ahora bien, todavía no ha tenido éxito ninguno de los muchos intentos por lograr una potencia, una versatilidad y una facilidad de uso equivalentes en otras plataformas, en especial en teléfonos portátiles.
Los programas que estos ordenadores ejecutan, el software, continúan evolucionando a gran velocidad, como también lo hacen los elementos a los que están conectados, las bases de datos y las redes mundiales de comunicaciones. Es imposible prever adónde nos llevará todo ello. En el lapso de tiempo que transcurrirá desde la redacción de este ensayo hasta su publicación, puede que la naturaleza de la informática haya cambiado tanto que algunas partes de este estudio habrán quedado obsoletas. Los ingenieros de Silicon Valley hablan de que los avances en informática se desarrollan en tiempo Internet, unos seis años más rápido de lo que lo hacen en cualquier otro lugar. Incluso tras eliminar parte de esta hipérbole publicitaria, esta observación parece ser cierta.
Los orígenes de la informática pueden situarse al menos en cuatro momentos históricos. El primero es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a ayudarse de objetos para calcular y contar tales como las piedrecillas (en latín calculi, del que viene el término actual calcular), los tableros de cálculo y los ábacos, todos los cuales han llegado hasta el siglo xx (Aspray 1990).
Ahora bien, ninguno de estos instrumentos se parece a lo que hoy nos referimos con el término ordenador. Para los ciudadanos de la época actual, un ordenador es un dispositivo o conjunto de dispositivos que nos libera de la pesadez que suponen las tareas de cálculo, así como de la actividad paralela de almacenar y recuperar información. Por tanto, el segundo hito histórico en la historia de la informática sería 1890, año en el que Herman Hollerith concibió la tarjeta perforada junto con un sistema de máquinas que procesaban, evaluaban y clasificaban la información codificada en ellas para la elaboración del censo de Estados Unidos. El sistema de Hollerith surgió en un momento crucial de la historia: cuando la maquinaria mecánica, cuyo mayor exponente son el motor de vapor y las turbinas hidráulicas y de vapor, había transformado la industria. La conexión entre energía y producción hacía necesaria una mayor supervisión, no sólo física, también de la gestión de datos que la industrialización trajo consigo. Los tabuladores de Hollerith (y la empresa que éste fundó y que sería la base del grupo IBM) fueron una de tantas respuestas, pero hubo otras, como las máquinas eléctricas de contabilidad, las cajas registradoras, las máquinas de sumar mecánicas, la conmutación automática y los mecanismos de control para los ferrocarriles, las centrales telefónicas y telegráficas junto con los sistemas de información para los mercados internacionales de valores y materias primas.
No obstante, el lector actual podría quejarse y aducir que éste tampoco es el punto de partida adecuado. Parece que la auténtica revolución informática guarda relación con la electrónica, si no con los microprocesadores de silicio, que en la actualidad están en todas partes, al menos con sus antepasados inmediatos, los transistores y los tubos de vacío. Según esto, la era de la informática comenzó en febrero de 1946, cuando el ejército de Estados Unidos hizo público el Calculador e integrador numérico electrónico (Electronic Numerical Integrator and Computer, ENIAC) en un acto celebrado en la Moore School of Electrical Engineering de Filadelfia. El ENIAC, que contaba con 18.000 tubos de vacío, se presentó como un instrumento capaz de calcular la trayectoria de un proyectil lanzado desde un cañón antes de que el proyectil realizara el recorrido. Eligieron muy bien el ejemplo, pues este tipo de cálculos era el motivo por el cual el ejército había invertido más de medio millón de dólares de entonces (lo que equivaldría a varios millones de dólares en la actualidad) en una técnica que, se reconocía, era arriesgada y estaba por demostrar.
Un estudio histórico reciente ha desvelado que previamente existía otra máquina que realizaba operaciones de cálculo con tubos de vacío. Se trata del Colossus británico, del que se fabricaron varias unidades que se instalaron en Bletchley Park, Inglaterra, durante la Segunda Guerra Mundial, y se usaron con éxito para descifrar los códigos alemanes. A diferencia del ENIAC, estas máquinas no realizaban operaciones aritméticas convencionales, pero sí llevaban a cabo operaciones de lógica a gran velocidad, y al menos algunas de ellas llevaban varios años en funcionamiento antes de la presentación pública del invento estadounidense. Tanto el ENIAC como el Colossus estuvieron precedidos de un dispositivo experimental que diseñó en la Universidad de Iowa un catedrático de Física llamado John V. Atanasoff, con la colaboración de Clifford Berry. Esta máquina también realizaba operaciones de cálculo por medio de tubos de vacío, pero, aunque sus componentes principales se presentaron en 1942, nunca llegó a estar en funcionamiento (Burks y Burks 1988).
El lector podría observar de nuevo que lo fundamental no es simplemente que una tecnología exista, sino que pase a ser de uso habitual en las mesas de trabajo y los hogares del ciudadano normal. Después de todo no han sido muchas las personas, como máximo una docena, que hayan tenido la oportunidad de utilizar el ENIAC y sacar provecho de su extraordinaria potencia. Lo mismo ocurre con los ordenadores Colossus, que se desmontaron después de la Segunda Guerra Mundial. Según esto, habría que fechar el verdadero origen de la revolución informática no en 1946 sino en 1977, año en el que dos jóvenes, Steve Jobs y Steve Wozniak, originarios de lo que se conoce como Silicon Valley, dieron a conocer al mundo un ordenador llamado Apple II. El Apple II (al igual que su predecesor inmediato el Altair y su sucesor el IBM PC) sacó a la informática del mundo especializado de las grandes empresas y el ejército y la llevó al resto del mundo.
Podríamos seguir indefinidamente con este debate. Según los jóvenes de hoy, la revolución informática es aún más reciente, pues consideran que se produjo cuando, gracias a Internet, un ordenador en un lugar determinado intercambió información con ordenadores que estaban en otros lugares. La más famosa de estas redes la creó la Agencia de proyectos de investigación avanzada (Advance Research Projects Agency, ARPA) del Departamento de Defensa de Estados Unidos, que a principios de 1969 ya tenía una red en marcha (ARPANET). Sin embargo, también hubo otras redes que conectaron ordenadores personales y miniordenadores. Cuando éstas se combinaron, en la década de 1980, nació Internet tal y como hoy la conocemos (Abbate 1999).
Lo cierto es que hay muchos puntos donde se puede empezar esta historia. Mientras escribo este artículo la informática está experimentando una nueva transformación. Me refiero a la fusión entre ordenadores personales y dispositivos de comunicación portátiles. Como en otras ocasiones, esta transformación viene acompañada de descripciones en la prensa diaria que hablan de los efectos revolucionarios que tendrá. Es evidente que el teléfono posee una historia larga e interesante, pero no es ése el tema que nos ocupa. Sólo hay una cosa clara: aún no hemos asistido al último episodio de este fenómeno. Habrá muchos más cambios en el futuro, todos impredecibles, todos presentados como el último adelanto de la revolución informática y todos dejarán relegadas al olvido las «revoluciones» anteriores.
Este relato comienza a principios de la década de 1940. La transición de los ordenadores mecánicos a los electrónicos fue, en efecto, importante, pues entonces se sentaron las bases para inventos posteriores, como los ordenadores personales. En aquellos años ocurrieron más cosas importantes: fue durante esta década cuando surgió el concepto de programación (posteriormente ampliado al de software) como actividad independiente del diseño de los equipos informáticos, si bien de suma importancia para que éstos pudieran emplearse para lo que habían sido diseñados. Por último, fue en esta época cuando, como resultado de la experiencia con las primeras enormes computadoras experimentales ya en funcionamiento, apareció un diseño funcional básico, una arquitectura, para utilizar el término más reciente, que se ha mantenido a través de las oleadas sucesivas de avances tecnológicos hasta la actualidad.
Por tanto, y con todos los matices que habrá que añadir para que la afirmación resulte admisible para los historiadores, podemos considerar que el ENIAC constituyó el eje de la revolución informática (Stern 1981). Aquella máquina, concebida y desarrollada en la Universidad de Pensilvania durante la Segunda Guerra Mundial, inauguró lo que conocemos por era informática. Siempre y cuando se entienda que cualquier punto de origen histórico que se elija es en cierto modo arbitrario, y siempre y cuando se conceda el debido crédito a los adelantos que tuvieron lugar antes, incluida la labor de Babbage y Hollerith, así como los inventos de la máquina de sumar, la caja registradora y otros dispositivos similares, podemos empezar aquí.
Introducción
Casi todas las culturas han compartido la capacidad de contar y de representar cantidades con notaciones simbólicas de algún tipo, por muy primitivas que puedan parecerles a los estudiosos actuales. Ahora bien, conseguir pruebas materiales de ello es mucho más difícil, a menos que utilizasen materiales duraderos como las tablillas de arcilla. Sabemos que la idea de representar y manejar información cuantitativa de manera simbólica con piedrecillas, cuentas, nudos en una cuerda o métodos similares surgió de manera independiente en todo el mundo antiguo. Por ejemplo, los exploradores españoles en el Nuevo Mundo descubrieron que los incas utilizaban un avanzado sistema de cuerdas con nudos llamado quipu, y que en la Biblia se menciona un sistema parecido de sartas con nudos, y que al menos una de ellas, el rosario, ha sobrevivido hasta nuestros días. Un modelo de representación muy abstracto de las cuentas evolucionó en el ábaco, del que como mínimo han llegado hasta la actualidad tres tipos diferentes en China, Japón y Rusia, y que en manos de un operador diestro constituye una herramienta de cálculo potente, compacta y versátil. En la Edad Media los países occidentales también utilizaron asistentes de cálculo parecidos, entre ellos unos tableros (dotados de cuadrículas y patrones para facilitar las sumas) y sus fichas (que han llegado hasta nosotros en forma de las fichas de juego empleadas en los casinos).
Es importante señalar que estos instrumentos sólo los usaban aquellas personas cuyos cargos dentro del gobierno, la Iglesia o los negocios lo requiriesen. Hecha esta salvedad podría decirse que eran de uso común, aunque no en el sentido de que estuvieran en todas partes. Esta misma salvedad se puede aplicar a todas las máquinas de
cálculo, ya que su adopción depende, sin duda, de lo costosas que sean, si bien resulta además fundamental que se ajusten a las necesidades de quienes las van a usar. Cuando la sociedad occidental se industrializó y se volvió más compleja, estas necesidades aumentaron; no obstante conviene apuntar que a pesar de lo mucho que han bajado los precios de los ordenadores y del acceso a Internet, no se ha conseguido aún que penetren completamente en el mercado del consumidor y, probablemente, nunca lo hagan.
Antes de pasar a las máquinas conviene mencionar otra herramienta de cálculo que tuvo un uso muy extendido y que ha llegado hasta la época moderna de forma muy rudimentaria. Se trata de las tablas impresas, en las que había, por ejemplo, una lista de valores de una función matemática determinada. Su uso data de la Grecia antigua, pero también las utilizaron mucho los astrónomos y, aún más importante, los marinos en alta mar. El negocio de los seguros, por su parte, desarrolló las llamadas tablas de estadísticas, como las de los índices de mortalidad, por ejemplo. En la actualidad, las calculadoras de bolsillo y las hojas de cálculo de los programas informáticos nos permiten realizar operaciones de manera inmediata, pero las tablas todavía tienen su valor. Aún es posible encontrar lugares donde se utilizan, lo que pone de manifiesto su estrecha relación con uno de los usos principales de los modernos instrumentos de cálculo electrónico (Kidwell y Ceruzzi 1994).
La mayoría de estos instrumentos funcionaban en colaboración con el sistema de numeración indo-árabe, en el que el valor de un símbolo depende no sólo del símbolo en sí (1, 2, 3…), sino también del lugar donde está situado (y en el que el importantísimo cero se usa como un parámetro de sustitución). Este sistema de numeración era mucho más avanzado que los de tipo aditivo, como el romano, y su adopción por parte de los europeos a finales de la Edad Media constituyó un hito en el camino hacia el cálculo moderno. Cuando realizaban operaciones de suma, si el total de los dígitos de una columna era superior a nueve había que llevarlo a la siguiente columna por la izquierda. La mecanización de este proceso supuso un paso significativo desde las ayudas de cálculo mencionadas anteriormente hacia el desarrollo del cálculo automático. Una descripción esquemática y fragmentaria recogida en una carta a Johannes Kepler revela que el profesor Wilhelm Schickard, de la localidad alemana de Tubinga, había diseñado un aparato de estas características a principios del siglo xvii, pero no hay constancia de que ninguna de las piezas haya llegado hasta nuestros días.
En 1642 el filósofo y matemático francés Blaise Pascal inventó una máquina de sumar que es la más antigua de cuantas se conservan. Los dígitos se introducían en la calculadora haciendo girar un conjunto de ruedas, una por cada columna. Cuando las ruedas superaban el 9, un diente del engranaje avanzaba una unidad en la rueda contigua. Pascal se esforzó mucho para asegurarse de que el caso extremo de sumar un 1 a una serie de 9 no bloquease el mecanismo. Esta máquina inspiró a unos cuantos inventores a construir aparatos parecidos, pero ninguno se comercializó con éxito. Ello se debió, por un lado, a que eran frágiles y delicados y, por lo tanto, costosos y, por otro, a que en la época de Pascal no se consideraba que estas máquinas fueran necesarias.
Unos treinta años más tarde el filósofo y matemático alemán Gottfried Wilhelm Leibniz, satirizado por Voltaire en su Cándido y famoso por ser uno de los creadores del Calculus, tuvo noticias del invento de Pascal e intentó diseñar una calculadora. Consiguió construir una máquina que no sólo sumaba sino también multiplicaba mediante el uso de engranajes que conectaban un número variable de dientes dependiendo de dónde hubiera puesto el operador el círculo indicador. Esta calculadora no funcionó bien, pero el tambor escalonado se convirtió en la base para casi todas las calculadoras de multiplicar hasta finales del siglo xix. Uno de sus descendientes modernos, el Curta, era lo suficientemente pequeño como para que cupiese en un bolsillo, y se fabricó y comercializó hasta comienzos de la década de 1970.
La aparición de una sociedad más mercantil, con una clase media en aumento, contribuyó a hacer más favorables las condiciones para el éxito comercial. Hacia 1820, Charles Xavier Thomas, precursor de la estabilización del sector de seguros en Francia, diseñó y comercializó su Aritmómetro, en el que utilizó el tambor escalonado de Leibniz para hacer multiplicaciones. Al principio no se vendieron muchos, pero después de 1870 su uso se extendió y llegaron a venderse unos cien ejemplares al año. Para entonces la industrialización estaba en pleno desarrollo y, junto a la máquina de Thomas, hicieron su aparición una serie de productos que compitieron entre sí para satisfacer la creciente demanda (Eames y Eames 1990).
Esto ocurrió a ambos lados del Atlántico. Son especialmente importantes dos máquinas de sumar desarrolladas en Estados Unidos. Aunque ninguna de las dos podía multiplicar, sí efectuaban sumas a gran velocidad, eran fáciles de usar, su coste era modesto (aunque no bajo) y eran muy resistentes, lo que las hacía rentables. A mediados de la década de 1880, Dorr E. Felt diseñó y patentó una máquina de sumar que se usaba presionando un conjunto de teclas numéricas, una serie de dígitos por cada posición numérica. Y, lo que era más novedoso aún, la fuerza necesaria para presionar las teclas activaba el mecanismo de manera que el operador no tenía que detenerse y girar una manivela, tirar de una palanca o ninguna otra cosa. En manos de un operador diestro, que no separase los dedos del teclado, ni siquiera lo mirase, el Comptómetro de Felt podía realizar sumas con enorme rapidez y precisión. Con un precio de venta de unos 125 dólares, los comptómetros pronto se convirtieron en una herramienta habitual en las oficinas estadounidenses de principios del siglo xx. Por la misma época, William Seward Burroughs inventó una máquina de sumar que imprimía los resultados en una tira de papel y evitaba tener que consultarlos en la ventanilla. Su inventó supuso el comienzo de Burroughs Adding Machine Company, que en la década de 1950 hizo el tránsito a la fabricación de ordenadores electrónicos, y que tras una fusión con Sperry en 1980 se conoce con el nombre de Unisys Corporation.
En las oficinas de Europa las máquinas de calcular también se convirtieron en un producto de uso habitual, aunque tomaron un camino diferente. El ingeniero sueco W. Odhner inventó una máquina compacta y sólida que multiplicaba además de sumar, mediante un tipo de engranaje diferente al de Leibnitz (los números se introducían activando palancas en lugar de presionando teclas), y que se comercializó con éxito con los nombres de Odhner, Brunsviga y otros.
No se puede dar por concluido ningún estudio sobre máquinas de cálculo sin mencionar a Charles Babbage, un británico a quien muchos consideran el inventor del primer ordenador automático y programable, la famosa máquina analítica. Esta idea se le ocurrió tras diseñar y montar parcialmente una máquina diferencial, un proyecto más modesto pero que representaba un gran avance para la tecnología de cálculo de su época. Más adelante hablaremos en detalle de la labor de Babbage; baste decir ahora que lo que presentó, a principios de la década de 1830, era el proyecto de una máquina con todos los componentes básicos funcionales de un ordenador moderno: una unidad aritmética que llamó Mill, un dispositivo de memoria que llamó Store, un método de programar la máquina por medio de tarjetas y una forma de imprimir los resultados o perforar las respuestas en otra serie de de tarjetas. Se fabricaría con metal y funcionaría con un motor de vapor. Babbage pasó muchos años intentando llevar su idea a buen puerto, pero cuando murió en 1871 sólo se habían construido algunas partes.
Es curioso pensar en lo diferente que el mundo habría sido si Babbage hubiera logrado terminar su máquina. Quizás habríamos conocido una era de la información con motores de vapor. Sin embargo, como ya ocurriera con las máquinas de Pascal y Leibniz, hay que tener en cuenta que el mundo entonces no estaba necesariamente preparado para este tipo de invento. Para que hubiera tenido verdadera repercusión, Babbage no sólo habría tenido que superar los obstáculos técnicos que malograron su motor analítico, también desplegar unas dotes comerciales considerables para convencer a la gente de que su invento era realmente útil. La prueba de ello está en el hecho de que los suecos Georg Scheutz y su hijo Edvard finalizaron el diseño de una máquina diferencial operativa en 1853, considerada la primera calculadora con impresora de uso comercial (Merzbach 1977). Aunque el observatorio de Dudley de Albany, en el estado de Nueva York, la adquirió, lo cierto es que la máquina apenas tuvo repercusiones en la ciencia o el comercio. La era de la información aún tenía que esperar.
Hacia finales del siglo xix el arte de calcular se había estabilizado. En el mundo de los negocios el sencillo comptómetro o el Odhner habían ocupado su lugar junto a otros aparatos de alcance similar, como la máquina de escribir o el teletipo. En el mundo de la ciencia, todavía pequeño en aquellos años, había cierto interés, pero no el suficiente para apoyar la fabricación de algo que fuera más allá de una máquina especializada aquí y allá. Las ciencias que necesitaban realizar cálculos, como la astronomía, se las arreglaban con las tablas impresas y las calculadoras humanas (así se llamaban quienes realizaban esta tarea) que trabajaban con papel y lápiz, libros de tablas matemáticas y, quizás, alguna máquina de sumar. Lo mismo ocurría con los ingenieros, utilizaban libros de tablas matemáticas ayudados en algunos casos por máquinas especializadas diseñadas para resolver un problema concreto (por ejemplo, un instrumento para pronosticar mareas o el analizador diferencial de Bush). A partir de 1900 los ingenieros también contaron con la ayuda de dispositivos analógicos como el planímetro y, sobre todo, la regla deslizante, un instrumento de una precisión limitada, pero versátil, que satisfacía razonablemente la mayoría de las necesidades de los ingenieros.
Las tarjetas perforadas de Herman Hollerith empezaron como uno de estos sistemas especializados. En 1889 atendió a una petición del superintendente del censo de Estados Unidos, a quien cada vez le resultaba más difícil presentar sus informes en el momento debido. La tarjeta perforada, junto con el método de codificación de datos por medio de patrones de agujeros en esta tarjeta, y de clasificación y recuento de los totales y los subtotales que la acompañaban se ajustaba a la perfección a las necesidades de la Oficina del Censo. Lo que ocurrió después se debió sobre todo a la iniciativa de Hollerith quien, tras haber inventado este sistema, no se conformó con tener un único cliente que lo utilizase una vez cada diez años, por lo que inició una campaña para convencer a otros de su utilidad. Fundó una empresa, que en 1911 se fusionó con otras dos para constituir la Computing-Tabulating-Recording Corporation, y en 1924, cuando Thomas Watson tomó las riendas, pasó a llamarse International Business Machines. Watson, como vendedor que era, comprendió que estos aparatos tenían que satisfacer las necesidades de los clientes si querían prosperar. Entretanto, la Oficina del Censo, que no quería depender demasiado de un solo proveedor, fomentó el crecimiento de una empresa de la competencia, Remington Rand, que se convirtió en el rival principal de IBM en este tipo de equipos durante los cincuenta años que siguieron.
Visto en retrospectiva, da la impresión de que el éxito de los sistemas de tarjetas perforadas vino dictado de antemano, pues su capacidad para clasificar, recopilar y tabular información encajó a la perfección con la creciente demanda de datos relativos a las ventas, el marketing y la fabricación procedentes de una economía industrial en auge. No hay duda de que el factor suerte contribuyó, pero hay que conceder a Hollerith el crédito debido por su visión de futuro, al igual que a Watson por promocionar de manera incansable esta tecnología. Cuando en 1930 la economía de Estados Unidos se tambaleó, las máquinas IBM continuaron usándose tanto como antes, pues satisfacían el ansia de datos estadísticos de las agencias gubernamentales estadounidenses y extranjeras. Watson, vendedor por antonomasia, promovió y financió generosamente además posibles aplicaciones de los productos a su empresa en los ámbitos de la educación y la ciencia. A cambio de ello, algunos científicos descubrieron que los equipos IBM, con unas modificaciones mínimas, servían para resolver problemas científicos. Para astrónomos como L. J. Comrie la tarjeta perforada se convirtió, en efecto, en el sueño fallido de Babbage llevado a la práctica. Otros científicos, entre ellos el ya mencionado Atanasoff, habían empezado a diseñar calculadoras especializadas capaces de realizar una secuencia de operaciones, como se suponía habría hecho la máquina analítica que Babbage nunca llegó a completar. Todos ellos lo consiguieron con la ayuda de los tabuladores y calculadoras mecánicas de IBM que cumplieron su función de forma tan satisfactoria que casi hicieron innecesario desarrollar un nuevo tipo de máquina (Eckert 1940).
Al revisar esta época se observa una correspondencia notable entre estos nuevos diseños de calculadoras programables y el de la máquina analítica que nunca llegó a completarse. Sin embargo, el único diseñador que conocía la existencia de Charles Babbage era Howard Aiken, un catedrático de la Universidad de Harvard, y ni siquiera él adoptó su modelo cuando desarrolló su propio ordenador. En 1930 Babbage no era un completo desconocido, pero la mayoría de las historias que sobre él circulaban coincidían en que su labor había sido un fracaso y sus máquinas, ideas descabelladas, lo cual no sirvió de gran inspiración a una nueva generación de jóvenes inventores. Sin embargo, todos los que tuvieron éxito donde Babbage fracasó compartían su pasión y determinación por llevar a la práctica, por medio de engranajes y cables, el concepto de cálculo automático. Además, también contaban con unas buenas dotes de persuasión, como las de Thomas Watson.
Entre ellos cabe mencionar a Kourand Zuse, quien mientras todavía cursaba sus estudios de Ingeniería en Berlín, a mediados de la década de 1930, hizo un esbozo de una máquina automática porque, según decía, era demasiado perezoso para efectuar las operaciones de cálculo necesarias para sus estudios. La pereza y la necesidad, dicen, son la madre de la ciencia. Cuando los nazis sumieron al mundo en la guerra, Zuse trabajaba durante el día en una planta aeronáutica en Berlín y por la noche construía máquinas experimentales en la casa de sus padres. En diciembre de 1941 puso en funcionamiento su Z3, utilizando relés telefónicos sobrantes para los cálculos y el almacenamiento, y películas fotográficas perforadas de desecho para la programación (Ceruzzi 1983).
En 1937 Howard Aiken se planteó, mientras trabajaba en su tesis de Física en Harvard, diseñar lo que más tarde se conoció como Calculador controlado por secuencia automática (Automatic Sequence Controlled Calculador, ASCC). Eligió las palabras deliberadamente con la intención de que reflejasen su opinión de que la falta de capacidad de las máquinas de tarjetas perforadas para efectuar secuencias de operaciones suponía una limitación para su uso científico. Aiken consiguió el apoyo de IBM, que construyó la máquina y la llevó a Harvard. Allí, en plena Segunda Guerra Mundial, en 1944, la dio a conocer. De ahí que el ASCC también se conozca por ser el primer invento que difundió la noción de cálculo automático (los espías alemanes comunicaron estas noticias a Zuse, pero para 1944 él ya tenía muy avanzada la construcción de una máquina de características similares a la de Aiken). El ASCC, o Harvard Mark I, como se le suele llamar, utilizaba componentes modificados IBM para los registros, pero se programaba por medio de una tira de papel perforado.
En 1937 George Stibitz, un matemático-investigador que trabajaba en los Bell Telephone Laboratories de Nueva York, diseñó un rudimentario circuito que efectuaba sumas por medio de la aritmética binaria, un sistema numérico difícil de usar para los seres humanos, pero que se adapta a la perfección a estos dispositivos. Al cabo de dos años consiguió convencer a su empresa para que fabricara una sofisticada calculadora a base de relés que funcionase con los llamados números complejos, que con frecuencia aparecían en los análisis de circuitos telefónicos. Esta calculadora de números complejos no era programable, pero contribuyó a la creación de otros modelos en los laboratorios Bell durante la Segunda Guerra Mundial que sí lo fueron. Todo ello culminó con el diseño de varios ordenadores de uso general de gran tamaño basados en relés, que tenían la capacidad no sólo de ejecutar una secuencia de operaciones aritméticas, sino también de modificar su forma de proceder basándose en los resultados de un cálculo previo. Esta última característica, junto con la velocidad electrónica (de la que trataremos después), se considera una diferencia esencial entre lo que hoy conocemos como ordenadores y sus predecesores de menor capacidad, las calculadoras (en 1943 Stibitz fue el primero que utilizó la palabra digital para describir máquinas que realizaban cálculos con números discretos).
Para completar este estudio de máquinas cabe mencionar al Analizador diferencial que diseñó el MIT (Massachusetts Institute of Technology, Instituto tecnológico de Massachussets) bajo la dirección del catedrático Vannevar Bush a mediados de la década de 1930. Esta máquina no realizaba cálculos digitalmente, para usar la expresión actual, pero funcionaba con un principio parecido al de los contadores de vatios analógicos que se pueden encontrar en las casas. En otros aspectos, el analizador de Bush era parecido a otras máquinas de las que ya se hemos hablado anteriormente. Al igual que otros precursores, Bush buscaba resolver un problema específico: analizar las redes de los generadores de corriente alterna y las líneas de transmisión. El Analizador diferencial estaba formado por un complejo ensamblaje de unidades de cálculo que se podían reconfigurar para resolver una variedad de problemas. Debido a las necesidades de la Segunda Guerra Mundial se montaron varias unidades de esta máquina, pero se destinaron a resolver problemas más urgentes. Una de ellas, la que se instaló en la Moore School of Electrical Engineering de Filadelfia, sirvió de inspiración para el ENIAC.
Todas estas máquinas utilizaban engranajes mecánicos, ruedas, palancas o relés para sus elementos de cálculo. Los relés son dispositivos eléctricos, pero el interruptor activa la corriente de manera mecánica, con lo que la velocidad de la operación tiene, en esencia, las mismas características que las de los dispositivos completamente mecánicos. Ya en 1919 se sabía que era posible diseñar un circuito a base de tubos de vacío capaz de realizar la conmutación con mayor rapidez, al producirse ésta dentro del tubo por medio de una corriente de electrones de masa insignificante. Los tubos eran propensos a quemarse, ya que para funcionar requerían una gran potencia que a su vez era fuente de excesivo calor. Los incentivos para construir una máquina de cálculo a base de tubos no eran demasiados, a menos que las ventajas, en lo que a la rapidez se refiere, superasen estos inconvenientes.
A mediados de la década de 1930 John V. Atanasoff, catedrático de Física de la Universidad de Iowa, observó las ventajas de emplear circuitos de tubos para resolver sistemas de ecuaciones lineales. Las ecuaciones lineales se pueden encontrar en casi todas las ramas de la Física y su solución requiere realizar un gran número de operaciones de aritmética ordinarias pero conservando los resultados intermedios. En 1939 Atanasoff, con una modesta beca universitaria, comenzó a diseñar circuitos y para 1942 tenía listo un prototipo que funcionaba, a excepción de fallos intermitentes ocurridos en la unidad de almacenamiento intermedia. Por entonces Atanasoff se trasladó a Washington para trabajar en otros proyectos durante la guerra y no llegó a terminar su ordenador. En aquella misma época en Alemania, un compañero de Zuse llamado Helmut Schreyer diseñó circuitos de tubos que presentó como sustitutos de los relés que empleaba Zuse. Aunque esta propuesta constituyó la base de su tesis doctoral, al margen de unos cuantos paneles experimentales, no avanzó mucho en ella.
La primera vez en la que se aplicaron con éxito los tubos de vacío a la informática fue en Inglaterra, donde un equipo de personas encargadas de descifrar códigos diseñó, en el más absoluto secreto, una máquina que les ayudara a interpretar los mensajes militares transmitidos por radio de los alemanes. Es un ejemplo que ilustra a la perfección la necesidad de la velocidad que proporcionaba la electrónica, pues no sólo había un considerable número de combinaciones de teclas a tener en cuenta sino que también el contenido de los mensajes interceptados perdía valor militar según pasaba el tiempo y a menudo quedaba obsoleto transcurridos unos días. El primero de los llamados Colossus se terminó en 1943 (más o menos en la época que se empezó el ENIAC), y para el final de la guerra había diez en funcionamiento. La información relativa a estas máquinas sigue estando clasificada, incluso después de 65 años, pero se ha desvelado que aunque no realizaban operaciones aritméticas como lo hacían las calculadoras, sí podían realizar y, así lo hicieron, operaciones de lógica con información expresada en símbolos, lo cual constituye la base de los circuitos electrónicos de procesamiento actuales.
El ENIAC, diseñado en la Universidad de Pensilvania y presentado al público en febrero de 1946, sigue más la tradición de las máquinas que acabamos de ver que la de los ordenadores electrónicos de uso general que le siguieron. Se concibió, propuso y diseñó para resolver un problema específico: calcular las tablas de balísticas del ejército. Su arquitectura es un reflejo de lo que se requería para resolver ese problema, y ningún otro ordenador la ha imitado. Sólo se construyó uno, y aunque el final de la guerra hizo que la elaboración de estas tablas no fuera tan urgente, las necesidades militares fueron siempre determinantes para la existencia del ENIAC (se desconectó en 1955). En la década de 1940 la informática estaba avanzando en varios frentes. Los ejemplos ya mencionados son los más destacados, pero, detrás de ellos hubo un gran número de proyectos que, aunque de menor envergadura, fueron también significativos.
La metáfora de progreso lineal (por ejemplo, el uso de términos como «hito») para relatar la historia de la informática no es adecuada. Los adelantos que se produjeron en este campo durante la década de 1940 se parecían más a un ejército avanzando por un terreno accidentado. El ENIAC, en virtud del aumento drástico de la velocidad con la que realizaba las operaciones aritméticas, hizo que la función de cálculo de estas máquinas se colocara muy por delante de otras funciones, como el almacenamiento de datos o la producción de resultados, con lo que hubo que darse prisa para situar a éstas al mismo nivel. De todas estas funciones, el mayor obstáculo lo constituyó la función mediante la que se daba instrucciones al procesador. John Mauchly señaló: «Sólo se pueden efectuar cálculos a gran velocidad si se dan instrucciones a gran velocidad». Por tanto, los diseñadores del ENIAC vieron claramente que era necesario crear una unidad electrónica de almacenamiento de instrucciones interna. Todas las máquinas disponen de software: un conjunto de procedimientos que hacen posible usarlas. Antes de la electrónica, la velocidad de la maquinaria guardaba relación con la de los seres humanos. Esta separación aparece por primera vez con los ordenadores, y en ella reside la verdadera naturaleza revolucionaria de la era digital. El ENIAC, gracias a la elevada velocidad a la que efectuaba operaciones aritméticas, colocó la programación en primer plano (no es una coincidencia que la expresión «programar un ordenador» fuera acuñada por el equipo que diseño el ENIAC).
El ENIAC, por tanto, ocupa un lugar paradójico, ya que constituye el eje de esta historia tanto por sus defectos como por sus virtudes. No estaba programado, sino que se configuraba de manera laboriosa conectando cables, que, en efecto, había que volver a conectar para cada nueva operación. Todo ello suponía un problema que se tardaba minutos en resolver, por lo que configurarlo podía llevar días. En cambio los parientes electromecánicos del ENIAC, como el Harvard Mark I, podían programarse en unas cuantas horas pero tardaban días en resolver las ecuaciones.
Cuando el ENIAC tomaba forma, a principios de la década de 1940, sus diseñadores estaban ya pensado en cómo sería la máquina que lo sucedería. En retrospectiva, se trataba de un equipo perfecto para la labor que tenía que realizar: personas con conocimientos de ingeniería eléctrica, de matemáticas y de lógica. De sus deliberaciones surgió la noción de diseñar un ordenador que contara con una unidad de memoria dedicada, que almacenase datos, pero que no necesariamente realizase operaciones aritméticas o de otro tipo. Las instrucciones, al igual que los datos, se almacenarían en este dispositivo, y cada uno de ellos se podría recuperar o almacenar a gran velocidad. Este requisito surgió de la necesidad práctica de ganar velocidad, como antes señaló Mauchly, así como del deseo de la ingeniería de disponer de una unidad de memoria simple sin la complicación adicional de tener que dividirla y asignar un espacio diferente para cada tipo de información.
De esta sencilla noción nació en gran medida la capacidad de cálculo que siguió y que desde entonces se ha asociado a John von Neumann, quien se unió al equipo del ENIAC y en 1945 escribió un informe sobre su sucesor, el EDVAC, explicando estos conceptos. Sin embargo, se trató claramente de un esfuerzo conjunto, que tuvo al ENIAC, entonces en proceso de montaje, como telón de fondo.
Todas las ventajas de este diseño no servirían de nada si no se encontraba un dispositivo de memoria con suficiente capacidad para operar de manera segura, rápida y barata. Eckert estaba a favor del uso de tubos de mercurio que transportaban impulsos acústicos, pero Newman prefería utilizar un tubo de vacío especial. Los primeros ordenadores que dispusieron de verdaderos programas en su memoria para su funcionamiento utilizaban tubos de mercurio o tubos de rayos catódicos modificados que almacenaban información a modo de haces de carga eléctrica (Randell 1975). Estos métodos proporcionaban alta velocidad, pero tenían una capacidad limitada y eran caros. Muchos otros ingenieros optaron por un tambor magnético rotativo que, aunque mucho más lento, era más seguro. El Proyecto Whirlwind, del MIT, superó este obstáculo cuando, a principios de la década de 1950, su equipo ideó una forma de almacenar datos en diminutos núcleos magnéticos, unas piezas de material imantado en forma de rosquilla (Redmond y Smith 1980).
Generaciones: 1950-1970
Eckert y Mauchly no sólo son famosos por sus contribuciones al diseño de ordenadores. Fueron de los pocos que, por aquella época, buscaron aplicaciones comerciales para su invento, en lugar de limitarse a usos científicos, militares o industriales a gran escala. Los británicos fueron los primeros en crear un ordenador para uso comercial: el LEO, una versión comercial del EDSAC diseñado para una empresa de catering llamada J. Lyons & Company Ltd., que estaba en funcionamiento en 1951. Pero al igual que ocurrió con los inventos de Babbage del siglo anterior, los británicos no fueron capaces de desarrollar esta notable innovación (Bird 1994). En Estados Unidos, Eckert y Mauchly tuvieron que hacer frente a un grado de escepticismo parecido cuando plantearon la fabricación de ordenadores con fines comerciales. Al final lograron su objetivo, aunque perdieron su independencia por el camino. Se trataba de un escepticismo justificado, si tenemos en cuenta los problemas de ingeniería que había para conseguir que el equipo funcionase debidamente. Sin embargo, hacia mediados de la década de 1950 Eckert y Mauchly consiguieron presentar un ordenador comercial de gran tamaño llamado UNIVAC, que tuvo una buena acogida por parte de los veinte clientes que lo compraron.
Otras empresas, grandes y pequeñas, también entraron en el negocio de los ordenadores durante esa década, pero a finales de la misma IBM se había colocado claramente a la cabeza. Ello se debió en gran medida a su magnífico departamento de ventas, que se aseguraba de que sus clientes vieran compensada con resultados útiles la gran inversión que habían hecho en equipo electrónico. IBM ofrecía una línea de ordenadores electrónicos diferente para sus clientes empresariales y científicos, así como una línea, que tuvo mucho éxito, de ordenadores pequeños y económicos, como el 1401. Hacia 1960 el transistor, que se inventó en la década de 1940, funcionaba lo suficientemente bien como para reemplazar a los frágiles tubos de vacío de la etapa anterior. La memoria de los ordenadores ahora consistía en una jerarquía de núcleos magnéticos, tambores o discos más lentos y, por último, una cinta magnética de gran capacidad. Para introducir información o programas en estas macrocomputadoras todavía había que usar tarjetas perforadas, con lo que se aseguraba la continuidad con el equipo de Hollerith, que era la base de IBM.
En 1964, IBM unificó sus líneas de productos con su System/360, que no sólo abarcaba la gama completa de aplicaciones relativas a la ciencia y los negocios (de ahí su nombre), sino que también se presentó como una familia de ordenadores cada vez más grandes, cada uno de los cuales tenía capacidad para ejecutar el software creado para los modelos inferiores. Esto constituyó un paso decisivo que volvió a transformar el sector, como lo había hecho UNIVAC diez años antes. Con ello se reconocía que el software, que empezó como una idea de último momento y en la periferia del diseño del soporte físico, se estaba convirtiendo cada vez más en el motor que impulsaba los avances informáticos.
Detrás de IBM en el mercado comercial estaban los siete enanitos: Burroughs, UNIVAC, National Cash Register, Honeywell, General Electric, Control Data Corporation y RCA. En Inglaterra, donde en la década de 1940 estuvieron en funcionamiento los primeros ordenadores que incorporaban programas en su memoria, también se desarrollaron productos comerciales, al igual que en Francia. Honrad Zuse, cuyo Z3 ya funcionaba en 1941, también fundó una empresa, quizás la primera del mundo dedicada por entero a la fabricación y venta de ordenadores. Pero, salvo mínimas excepciones, las ventas en Europa nunca se acercaron a las de las empresas estadounidenses. Los soviéticos, aunque competían con Estados Unidos en la exploración espacial, no pudieron hacer lo mismo con los ordenadores. Tuvieron que contentarse con copiar la IBM System/360, con lo que al menos podían aprovechar el software que otros habían creado. El motivo por el la URSS se quedó a la zaga, dada su excelencia técnica y sobre todo matemática, es un misterio. Quizás los encargados de planificación soviéticos vieron en los ordenadores un arma de doble filo; por un lado facilitarían la planificación estatal, pero por otro harían posible que se compartiera información de manera descentralizada. Desde luego, la falta de una economía de mercado enérgica, que constituyó un impulsó para los adelantos técnicos de UNIVAC e IBM, fue un factor a tener en cuenta. En cualquier caso, las fuerzas del mercado de Estados Unidos se vieron impulsadas por las enormes sumas de dinero aportadas por el Departamento de Defensa, que subvencionaba la investigación informática para las llamadas operaciones de control y mando, así como para la logística y los sistemas de navegación de misiles de a bordo.
El miniordenador y el chip
Si las tecnologías de la información se hubieran quedado en el punto en el estaban mediada la década de 1960, también ahora estaríamos hablando de una revolución informática, tal ha sido el impacto que ha tenido en la sociedad. Pero la tecnología no se quedó quieta; siguió avanzado a un ritmo cada vez más veloz. Pasaron diez años antes de que el transistor saliera de los laboratorios y se empezara a usar de manera comercial y práctica en los ordenadores. Ello tuvo consecuencias para los sistemas de las enormes macrocomputadoras ya mencionados, pero repercutió aún más en los sistemas pequeños. Hacía 1965 hicieron su aparición varios productos nuevos que ofrecían alta velocidad de procesamiento, solidez, un tamaño pequeño y un precio económico, lo que abrió mercados completamente nuevos. El PDP-8, que lanzó aquel año una empresa llamada Digital Equipment Corporation, inauguró esta clase de miniordenadores. A partir de aquí surgió un núcleo de fabricantes de miniordenadores en las afueras de Boston. Tanto en lo que se refiere a las personas como a la tecnología, el sector de los miniordenadores es descendiente directo del Proyecto Whirlwind del MIT que subvencionó el Departamento de Defensa (Ceruzzi 1998).
Cuando los diseñadores de ordenadores empezaron a usar los transistores tuvieron que enfrentarse a un problema técnico que en años anteriores había quedado disimulado por la fragilidad de los tubos de vacío. Se trataba de la dificultad que suponía ensamblar, cablear y probar circuitos con miles de componentes diferenciados: transistores, resistencias eléctricas y condensadores. Entre las muchas soluciones que se propusieron a este problema de interconexión estuvieron la de Jack Kilby, de Texas Instruments, y la de Robert Noyce, de Fairchild Semiconductor, cada uno de los cuales registró su patente por separado en 1959. Su invento dio en conocerse con el nombre de circuito integrado. Al poder seguir el ejemplo de los pasos que se habían dado con los transistores de silicio, estas empresas lograron comercializar su invento rápidamente: hacia finales de la década de 1960 el chip de silicio se había convertido en el principal dispositivo en los procesadores de los ordenadores y también había empezado a sustituir a los núcleos de memoria.
Además de inventar con Kilby el circuito integrado, Noyce hizo algo que determinó el rumbo de la ciencia informática. En 1968 abandonó Fairchild y fundó una nueva empresa, llamada Intel, dedicada a la fabricación de chips de memoria como sustitutos de los núcleos magnéticos. El valle de Santa Clara, en la península situada al sur de San Francisco, ya era un centro de microelectrónica, pero el que Noyce fundase allí Intel hizo que su actividad aumentase vertiginosamente. En 1971 un periodista llamó a esta región Silicon Valley: un nombre que hace referencia no sólo a la ingeniería informática que se desarrolla allí sino también a la cultura emprendedora y libre que lo impulsa (Ceruzzi 1998).
Hacia mediados de la década de 1970 la hegemonía de IBM en el mundo de la informática se vio amenazada desde tres frentes. Desde Silicon Valley y las afueras de Boston llegaban noticias de la existencia de sistemas pequeños, pero con una capacidad de procesamiento cada vez mayor. Del Departamento de Justicia de Estados Unidos llegó una demanda antimonopolio, presentada en 1969, en la que se acusaba a IBM de control indebido del sector. Por último, de los ingenieros informáticos que investigaban sobre software surgió la noción del uso interactivo de los ordenadores mediante un procedimiento conocido como tiempo compartido, que daba a varios usuarios simultáneos la impresión de que aquel ordenador grande y costoso era su máquina de uso personal. El tiempo compartido proporcionaba otra forma de poner capacidad de procesamiento en manos de nuevos grupos de usuarios, pero la promesa del ordenador de uso general económico, similar a la rejilla que suministra electricidad en nuestros hogares, no llegó a materializarse.
Un factor importante de este cambio hacia la informática interactiva fue la creación, en 1964, del lenguaje de programación BASIC en el Dartmouth College del estado de New Hampshire, donde los estudiantes de humanidades, ciencias o ingenierías técnicas descubrieron que sus ordenadores eran más accesibles que los de otras facultades, en los que tenían que presentar sus programas en forma de lote de tarjetas perforadas, codificadas en lenguajes más complicados y esperar a que les llegara el turno.
El ordenador personal
Las diversas críticas al método de cálculo de las macrocomputadoras convergieron en 1975, cuando una empresa poco conocida de Nuevo México sacó al mercado el Altair, que se anunció como el primer equipo informático que costaba menos de 400 dólares. Este equipo apenas se podía llamar ordenador y había que añadirle muchos más componentes para conseguir un sistema de uso práctico (Kidwell y Ceruzzi 1994). Sin embargo, el anuncio de Altair desencadenó una explosión de energía creativa que para 1977 había producido sistemas capaces de ejecutar tareas útiles y que empleaban chips de silicio avanzados tanto para el procesador como para la memoria, un disquete (inventado en IBM) para la memoria de masa, y el lenguaje de programación BASIC para permitir que los usuarios escribiesen sus propias aplicaciones de software. Esta versión de BASIC se debe a un pequeño equipo dirigido por Bill Gates, quien había dejado sus estudios en Harvard y se había trasladado a Nuevo México para desarrollar software para Altair. Con ello se logró arrebatar a IBM la hegemonía sobre el sector informático. Sin embargo, a ninguno de los gigantes que se enfrentaron a IBM les fue particularmente bien durante la siguiente década. Incluso, a principios de los noventa, la Digital Equipment Corporation, a quien debemos en gran medida la existencia del ordenador personal, estuvo a punto de quebrar.
Los ordenadores personales tenían un precio considerablemente más económico, si bien máquinas como las Altair no resultaban apropiadas para nadie que no estuviera muy versado en la electrónica digital y aritmética binaria. En 1977 aparecieron en el mercado varios productos de los que se aseguraba que eran tan fáciles de instalar y usar como cualquier otro electrodoméstico. El más popular fue el Apple II, cuyos fundadores, Steve Jobs y Steve Wozniak, eran el equivalente de Eckert y Maunchy en Silicon Valley: uno era un ingeniero de primera, el otro un visionario que intuyó el potencial de estas máquinas si se hacían accesibles para el gran mercado (Rose 1989). En 1979 apareció un programa llamado Visicalc para el Apple II: manejaba filas y columnas de cifras que los contables conocían como hojas de cálculo, sólo que con mayor rapidez y facilidad de lo que nadie jamás hubiera imaginado. Una persona que tuviera el Viscalc y el Apple II podía ahora hacer cosas que no resultaban fáciles ni para una macrocomputadora. Por fin, tras décadas de promesas, el software, es decir, los programas que hacen que los ordenadores hagan lo que uno quiera, pasaron a primer plano, el lugar que en justicia les correspondía. Una década después serían las empresas de software, como Microsoft de Bill Gates, las que dominarían las noticias sobre los adelantos de la informática.
A pesar de su reputación de lenta y burocrática, IBM reaccionó con rapidez al reto de Apple y sacó al mercado su propio PC en 1981. Este PC disponía de una arquitectura abierta que hacía posible a otras empresas suministrar software, equipo periférico y tarjetas de circuitos conectables, algo que se alejaba por completo de su filosofía tradicional, aunque muy común en el sector de los miniordenadores y otros ordenadores personales. Esta máquina tuvo un éxito comercial mayor del esperado, pues el nombre de IBM daba credibilidad al producto. Empleaba un procesador avanzado de Intel que le permitía tener acceso a mucha más memoria que la competencia. El sistema operativo lo suministró Microsoft y además se puso a la venta un programa de hoja de cálculo, el Lotus 1-2-3, para este PC y los aparatos compatibles con él.
Apple compitió con IBM en 1984 con su Macintosh, con el que sacó de los laboratorios el concepto de interfaz del usuario y lo puso al alcance del público en general. La metáfora de ver archivos en la pantalla como una serie de ventanas que se superponen, a las que el usuario accede con un puntero llamado ratón se había aplicado por primera vez en la década de 1960 en laboratorios subvencionados por el ejército. A principios de los setenta, un equipo de brillantes investigadores en un laboratorio de Silicon Valley de la Xerox Corporation perfeccionó este concepto. Pero fue Apple quien lo convirtió en un éxito comercial; Microsoft le siguió con su propio sistema operativo, Windows, que se lanzó casi coincidiendo con el Macintosh, pero que no se comercializó con éxito hasta 1990. A lo largo de la siguiente década prosiguió la batalla entre la arquitectura de Apple y la promovida por IBM, que utilizaba procesadores de Intel y un sistema de software de Microsoft.
Las primeras conexiones de red
Durante la década de 1980 los ordenadores personales acercaron la informática a los ciudadanos. Muchos individuos los utilizaban en el trabajo, y unos cuantos también tenían uno en casa. La tecnología, aunque todavía algo desconcertante, había dejado de ser un misterio. Ahora bien, aunque los ordenadores personales dominaban la prensa diaria, las respetadas macrocomputadoras seguían dominando la industria por lo que se refería al valor en dólares del equipo y del software que incorporaban. Aunque no podían competir con las aplicaciones de los programas para PC tales como las hojas de cálculo y los procesadores de texto, sí eran necesarias para las operaciones que requerían manejar grandes cantidades de datos. A principios de la década de 1970 estos ordenadores empezaron a cambiar las tarjetas perforadas por operaciones interactivas realizadas con el teclado y otros terminales que tenían el mismo aspecto físico que el de un ordenador personal. Los grandes sistemas de bases de datos en línea se convirtieron en algo habitual y poco a poco empezaron a transformar las actividades comerciales y gubernamentales de los países industrializados. Entre las aplicaciones más visibles están los sistemas de reservas aéreas, los de información al cliente y de facturación para las empresas de servicios públicos y compañías de seguros, así como los inventarios informatizados para minoristas. La combinación de sistemas de bases de datos y de facturación en línea, de números de teléfono gratuitos, de verificación de tarjetas de crédito y facturación telefónica transformó a la humilde rama minorista de venta por correo en una de las grandes fuerzas de la economía estadounidense.
Para todas estas actividades se necesitaban macrocomputadoras grandes y costosas y que dispusieran de un software diseñado a medida, lo cual suponía un enorme gasto para el cliente. Existía la tentación de conectar una serie de ordenadores personales baratos que ejecutasen paquetes de software económicos y de bajo mantenimiento, pero esto no era viable. Puede que si se engancha un grupo de caballos a un carro se ayude a arrastrar más peso, pero no hará que el carro vaya más rápido. Y hasta esto tiene sus limitaciones, pues al carretero cada vez le resultará más difícil que todos los caballos tiren en la misma dirección. El problema con la informática era parecido y quedó expresado en la ley de Grosch: por el mismo dinero, rinde más el trabajo que realiza un ordenador grande que dos pequeños (Grosch 1991).
Pero esto iba a cambiar. En el Centro de investigación de Palo Alto de Xerox en 1973, donde se habían logrado tantos avances relacionados con la interfaz de usuario, se inventó un método de conexión de redes que dejó la ley de Grosch
obsoleta. Sus creadores la llamaron Ethernet, en honor al medio (éter) que, según los físicos del siglo xix, transportaba la luz. Ethernet hizo posible conectar entre sí los ordenadores pequeños de una oficina o edificio, y con ello compartir la memoria de masa, las impresoras láser (otro invento de Xerox) y que los usuarios de los ordenadores intercambiaran mensajes de correo electrónico. Al tiempo que Ethernet hacía posible la conexión de redes local, un proyecto financiado por la Agencia de Proyectos de Investigación Avanzada en Defensa (ARPA) hacía lo propio para conectar ordenadores geográficamente dispersos. Tenía como objeto que las comunicaciones militares se mantuvieran seguras en caso de guerra, cuando los tramos de una red podían ser destruidos. Las primeras redes militares que provenían del Proyecto Whirlwind tenían unidades de mando central, y por ello era posible atacar al centro de control de la red. Estas unidades se encontraban en edificios sin ventanas, reforzados con estructuras de hormigón, pero si sufrían daños la red dejaba de funcionar (Abbate 1999).
ARPA financió la labor de un grupo de investigadores que desarrollaron una alternativa en la que se dividió la información en paquetes, cada uno los cuales recibía la dirección de un ordenador receptor y circulaban a través de la red de ordenadores. Si uno o más ordenadores en la red no funcionaban, el sistema encontraría otra ruta. El receptor reunía los paquetes y los convertía en una copia fiel del documento original que había transmitido. Hacia 1971 ARPANET contaba con quince nodos de conmutación repartidos por todo el país y en los nueve años siguientes creció con gran rapidez. En un principio tenía como objeto enviar conjuntos de datos grandes o programas de un nodo a otro, pero poco después de que la red entrase en funcionamiento la gente empezó a utilizarla para intercambiar mensajes breves. En un primer momento se trataba de un proceso laborioso, pero en 1973 Ray Tomlinson, un ingeniero de la empresa Bolt Beranek and Newman de Cambridge, Massachussets, hizo que esto cambiase. A Tomlinson se le ocurrió la sencilla idea de separar el nombre del receptor del mensaje y el de su ordenador con el símbolo @, uno de los pocos símbolos no alfabéticos de los que disponía el panel de mandos del teletipo que ARPANET empleaba en aquella época. Y así es como se concibió el correo electrónico, y con él, el símbolo de la era de las conexiones de red.
La presión ejercida para que ARPANET se pudiera destinar al envío de correos electrónicos y a otros usos que no fueran militares fue tan grande que la red terminó por escindirse. Una parte quedó bajo el control militar; la otra se cedió a la National Science Foundation (NSF), un organismo civil financiado por el Estado que subvencionó proyectos de investigación no sólo para ampliar esta red, sino también para hacer que se interconectasen los diferentes tipos de redes (por ejemplo, las que utilizaban radios en lugar de cables). Los investigadores empezaron a llamar al resultado de todo ello Internet, para reflejar así su naturaleza heterogénea. En 1983 las redes adoptaron un conjunto de normas para la transmisión de datos con esta interconexión llamado Protocolo de Control de Transmisión/Protocolo de Internet (Transmission Control Protocol/Internet Protocol, TCP/IP). Estos protocolos se siguen usando en la actualidad y constituyen la base de la Internet actual (Aspray y Ceruzzi 2008).
Estas redes de conexión local y remota encajaron a la perfección con otros cambios que se estaban desarrollando en el software y el hardware de los ordenadores. Salió un nuevo tipo de ordenador denominado estación de trabajo, que a diferencia de los PC se adecuaba mejor a las conexiones de redes. Otra diferencia fundamental es que utilizaba un sistema operativo llamado UNIX, que si bien era de difícil manejo para el consumidor, se ajustaba muy bien a las conexiones de red y a otros programas avanzados. UNIX fue creado por los laboratorios Bell, la sección dedicada a la investigación del monopolio de telefonía AT&T que regula el gobierno estadounidense. Los grupos de estaciones de trabajo, conectados entre ellos localmente por Ethernet, y por Internet a grupos de terminales similares por todo el mundo, por fin suponían una alternativa real a las grandes instalaciones de macrocomputadoras.
La era de Internet
La National Science Foundation (NSF), una agencia gubernamental estadounidense, no podía permitir el uso comercial de la parte de Internet que estaba bajo su control. Sí podía, sin embargo, ceder el uso de los protocolos de Internet a cualquiera que quisiera utilizarlos por muy poco dinero o de forma gratuita, a diferencia de lo que ofrecían empresas de ordenadores como IBM. Con el aumento de usuarios de Internet, la NSF se vio presionada para ceder su gestión a empresas comerciales. En 1992 el Congreso de Estados Unidos aprobó una ley con la que terminó de hecho la prohibición de su uso comercial, por lo que se puede decir que la aprobación de esta ley marcó el comienzo de la era de Internet. Ahora bien, esto no es completamente cierto, pues el gobierno estadounidense retuvo el control sobre el plan de direcciones de Internet, por ejemplo, los sufijos .com, .edu, etc., que permiten a los ordenadores saber adónde se envía un mensaje electrónico. A principios del siglo xxi, una serie de países pidió que dicho control pasara a la Organización de las Naciones Unidas, pero hasta ahora Estados Unidos se ha mostrado reacio. Se trata realmente de un recurso que se ofrece a todos los países del mundo, pero el registro maestro de los nombres de dominio lo gestiona una empresa privada estadounidense a la que el Departamento de Comercio concede esta autoridad.
Esta actividad política se vio complementada por adelantos significativos en la tecnología informática, lo que supuso un nuevo impulso para la difusión de Internet. Para 1990 las costosas estaciones de trabajo de UNIX habían cedido el paso a los ordenadores personales que utilizaban procesadores avanzados, en especial un procesador llamado Pentium, que suministraba Intel. En lo que respecta al software, salieron versiones nuevas del sistema operativo Windows de Microsoft en las que venían instaladas los protocolos de Internet y otros programas de conexión de redes. Esta combinación proporcionó a los PC una potencia equivalente a la de las estaciones de trabajo. Es raro encontrar UNIX en un PC, aunque los servidores de mayor potencia y los denominados routers que realizan las conmutaciones básicas de Internet lo siguen usando. Una variante de UNIX llamada Linux, creada en 1991 por Linus
Torvalds en Finlandia, se presentó como una alternativa gratuita o muy barata al sistema Windows de Microsoft, y tanto éste como el software relacionado con él lograron hacerse con una cuota de mercado pequeña, si bien significativa. Estos programas pasaron a conocerse como software de código abierto, el cual se define como libre, pero no sin restricciones (Williams 2002).
Mientras esta actividad se desarrollaba en los laboratorios gubernamentales y universitarios, los usuarios de PC empezaban a descubrir las ventajas de las conexiones de red. Los primeros ordenadores personales como el Apple II no tenían una gran capacidad para conectarse a una red, pero aficionados con mucha imaginación consiguieron desarrollar formas ingeniosas de comunicarse. Utilizaron un dispositivo llamado modem (modulador-demodulador) para transmitir datos informáticos lentamente a través de las líneas telefónicas. En esta empresa se vieron asistidos por una decisión tomada por el monopolio de telefonía estadounidense, según la cual los datos que se enviaban por líneas telefónicas recibirían la misma consideración que las llamadas de voz. Las llamadas locales eran, de hecho, gratuitas en Estados Unidos, pero las llamadas a larga distancia resultaban caras. Estos entusiastas de los ordenadores personales encontraron formas de reunir mensajes localmente y luego enviarlos de un lado a otro del país por la noche, cuando las tarifas eran más baratas (esto dió lugar a FidoNet, llamada así por un perro que iba a buscar información, como los perros cuando corren a buscar un objeto que se ha lanzado). También surgieron empresas comerciales para abastecer este mercado; alquilaban números de teléfono en las áreas metropolitanas y cobraban una tarifa a los usuarios por conectarse. Uno de los más importantes fue The Source, que se fundó en 1979 y que tras atravesar un periodo de dificultades financieras se reorganizó y convirtió en la base para America Online, el servicio de conexiones de red personal más popular desde la década de 1980 hasta finales de la de 1990.
Estos sistemas comerciales y personales son importantes porque con ellos las conexiones de redes cobraron una dimensión social. ARPANET era una red militar, y sus responsables desaprobaban su uso frívolo y comercial. Pero las redes personales, como los teléfonos de particulares a través de los que se transmitían estos mensajes, se utilizaron desde el principio para chats, debates informales, noticias y servicios comerciales. Una de las redes comerciales, Prodigy, también incluía gráficos a color, otro de los elementos básicos de la Internet de hoy. Las historias sobre Internet que hacen subrayan la importancia de ARPANET están en lo correcto: ARPANET fue su predecesora técnica, y sus protocolos surgieron de la labor de investigación del ARPA. Sin embargo, para que una historia de Internet sea completa, también hay que tener en cuenta su dimensión social y cultural, la cual surgió a partir de Podigy, AOL, así como de la comunidad de usuarios aficionados.
Hacia finales de la década de 1980 era evidente que las redes de ordenadores resultaban ventajosas para hogares y oficinas. No obstante, la red que se estaba creando con el apoyo de la National Science Foundation, era una de las muchas aspirantes. Los informes comerciales de aquellos años defendían un tipo de red completamente diferente, me refiero en concreto a la ampliación de la televisión por cable hasta alcanzar una multitud de canales nuevos, quinientos, según un pronóstico generalizado del momento. Esta nueva configuración de la televisión permitiría cierto grado de interactividad, pero ello no sería posible con un ordenador personal de uso doméstico. Se trataba de un producto lógico de los objetivos de marketing de los sectores de televisión y entretenimiento. Entre la comunidad de científicos y profesionales informáticos, las conexiones de red vendrían dadas a través de un conjunto bien estructurado de protocolos llamado interconexión de sistema abierto (Open Systems Interconection, OSI), que reemplazaría a Internet, de estructura más abierta. Nada de esto ocurrió, en gran manera debido a que Internet, a diferencia de los otros proyectos, se diseñó para permitir el acceso a redes diferentes sin estar vinculada a un monopolio regulado por el gobierno, grupo empresarial privado o sector en particular. Hacia mediados de la década de 1990 las redes privadas como AOL establecieron conexiones con Internet y los protocolos OSI cayeron en desuso. Paradójicamente, porque Internet era de acceso gratuito y no había sido concebida para un uso comercial determinado, pudo convertirse en la base de tanta actividad comercial una vez que salió del control del gobierno de Estados Unidos, después de 1993 (Aspray y Ceruzzi 2008).
En el verano de 1991 investigadores del Laboratorio Europeo de Física de Partículas CERN sacaron un programa llamado World Wide Web. Consistía en un conjunto de protocolos que operaban por encima de los protocolos de Internet y permitían un acceso muy flexible y generalizado a la información almacenada en la red en diversos formatos. Al igual que ocurrió con Internet, esta característica de acceso a todo tipo de formatos, máquinas, sistemas operativos y normas fue lo que hizo que su uso se generalizase rápidamente. En la actualidad y para la mayor parte de los usuarios, World Wide Web e Internet son sinónimos; ahora bien, es más apropiado decir que esta última constituyó la base de la primera. El principal creador de la World Wide Web fue Tim Berners-Lee, que en aquella época trabajaba en el CERN. Según recuerda, lo que le inspiró su creación fue ver cómo físicos de todo el mundo se reunían para debatir cuestiones científicas en los edificios del CERN. Además de la World Wide Web, Berners-Lee también desarrolló otro programa mediante el que se facilitaba el acceso a ésta desde un ordenador personal. Este programa, denominado buscador, fue un factor clave adicional en la popularización del uso de Internet (Berners-Lee 1999). Su buscador tuvo sólo un uso limitado y fue rápidamente reemplazado por uno más sofisticado llamado Mosaic, que se creó en 1993 en la Universidad de Illinois, en Estados Unidos. Al cabo de dos años los principales creadores de Mosaic abandonaron Illinois y se trasladaron a Silicon Valley en California, donde fundaron una empresa que se llamó Netscape. Los usuarios particulares podían descargar su buscador, Navigator, de manera gratuita, pero los comerciales tenían que pagar. El éxito casi instantáneo de Netscape supuso el comienzo de la burbuja de Internet, en virtud de la cual cualquier valor que estuviese remotamente relacionado con ella cotizaba a unos precios desorbitados. Mosaic desapareció, pero Microsoft compró sus derechos y lo convirtió en la base de su propio buscador, Internet Explorer, que en la actualidad es el medio más utilizado de acceso a la Web y a Internet en general (Clark 1999).
Conclusión
La historia de la informática empezó de manera lenta y metódica, y luego se disparó con la llegada de las conexiones de red, los buscadores y, ahora, con los dispositivos portátiles. Todo intento por trazar su trayectoria reciente está condenado al fracaso. Esta fuerza que la impulsa viene definida en la Ley de Moore, uno de los fundadores de Intel, según la cual los chips de silicio duplican su capacidad cada dieciocho meses (Moore 1965). Esto es lo que lleva ocurriendo desde 1960, y, a pesar de que periódicamente se pronostica que esto terminará pronto, parece que aún no es el caso. Asimismo, la capacidad de la memoria de masa, en especial de los discos magnéticos, y de la anchura de banda de los cables de telecomunicaciones y otros canales ha ido aumentando a un ritmo exponencial. Todo ello hace que los ingenieros estén atrapados en una rutina de la que no tienen escapatoria: cuando les piden que diseñen un producto no lo hacen pensando en la capacidad de los chips que hay en ese momento, sino en la potencia que calculan que tendrán cuando el producto salga a la venta, lo cual, a su vez, obliga a los fabricantes de chips a sacar uno que satisfaga esas expectativas. En la prensa general y especializada siempre se pueden encontrar predicciones en las que se indica que esto algún día se acabará: al menos cuando los límites de la física cuántica hagan imposible diseñar chips con mayor densidad. Sin embargo, a pesar de todos estos pronósticos que señalan que la Ley de Moore llegará a su fin, todavía no ha ocurrido, y mientras siga siendo válida es imposible predecir qué camino seguirá la informática, incluso, el año que viene. Pero esto es lo que convierte a esta era en una de las más emocionantes de la historia, siempre y cuando uno sea capaz de sobrellevar la velocidad a la que se producen los cambios tecnológicos.
_________________
Bibliografía
Abbate, J. Inventing the Internet. Cambridge, Massachusetts: MIT Press, 1999.
Aspray, W., ed. Computing Before Computers. Ames, Iowa: Iowa State University Press, 1990.
—, y P. E. Ceruzzi, eds. The Internet and American Business. Cambridge, Massachusetts, 2008.
Berners-Lee, T. y M. Fischetti. Weaving the Web: The Original Design and Ultimate Destiny of the World WSide Web by its Inventor. San Francisco: Harper, 1999.
Bird, P. LEO: The First Business Computer. Berkshire, Reino Unido: Hasler Publishing, 1994.
Burks, A. R. y W. Arthur. The First Electronic Computer: The Atanasoff Story. Ann Arbor, Michigan: University of Michigan Press, 1988.
Ceruzzi, P. E. Reckoners: the Prehistory of the Digital Computer, From Relays to the Stored Program Concept, 1935-1945. Westport, Connecticut: Greenwood Press, 1983.
—, A History of Modern Computing. Cambridge, Massachusetts: MIT Press, 1998.
Clark, J. y O. Edwards. Netscape Time: The Making of the Billion-Dollar Start-Up that Took on Microsoft. Nueva York: St. Martin’s Press, 1999.
Eames, Ch. y R. Offices of. A Computer Perspective: Background to the Computer Age. Cambridge, Massachusetts: Harvard University Press, 1990.
Eckert, W. J. Punched Card Methods in Scientific Calculation. Nueva York: IBM Corporation, 1940.
Grosch, H. R. J. Computer: Bit Slices from a Life. Novato, California: Third Millennium Books, 1991.
Kidwell, P. A., y P. E. Ceruzzi. Landmarks in Digital Computing: A Smithsonian Pictorial History. Washington, D. C.: Smithsonian Institution Press, 1994.
Merzbach, U. Georg Scheutz and the First Printing Calculator. Washington, D. C.: Smithsonian Institution Press, 1977.
Moore, G. E. «Cramming More Components onto Integrated Circuits», Electronics, (19 de abril de 1965): 114-117.
Randall, B., ed. The Origins of Digital Computers: Selected Papers. Berlín, Heidelberg y Nueva York: Springer-Verlag, 1975.
Redmond, K. C. y Th. M. Smioth. Project Whirlwind: The History of a Pioneer Computer. Bedford, Massachusetts: Digital Press, 1980.
Rose, F. West of Eden: The End of Innocence at Apple Computer. Nueva York: Penguin Books, 1989.
Stern, N. From ENIAC to UNIVAC: An Appraisal of the Eckert-Mauchly Computers. Bedford, Massachusetts: Digital Press, 1981.
Williams, S. Free as in Freedom: Richard Stallman’s Crusade for Free Software. Sebastopol, California: O’Reilly, 2002.
https://www.bbvaopenmind.com/articulo/historia-de-la-informatica/?fullscreen=true#chip
0 comentarios:
Publicar un comentario