Historia de la Computación

HISTORIA DE LA COMPUTACIÓN

 

La automatización consiste en reemplazar al hombre por una máquina para la ejecución de una tarea, y se desarrolla casi a la par con la historia de la humanidad. El eterno afán del hombre por facilitarse la vida, hace que su genio inventor diseñe artefactos, máquinas, y sistemas que efectúan cálculos y realizan labores que a él le parecen engorrosas.

 

 

El cálculo

 

La necesidad de un  soporte instrumental para las operaciones de cálculo se remonta, según varios testimonios y hallazgos, a tiempos muy remotos. Una de los más antiguos dispositivos de ayuda al cálculo numérico es el ábaco, que, en este sentido, puede considerarse como el progenitor de los actuales computadores.

 

Ya mucho antes de Cristo, se tienen noticias del ábaco (concretamente en Babilonia, alrededor del 3000 a. C.), primer artefacto creado para optimizar los procesos de cálculo de adición y sustracción. El I-Ching, o “Libro de las Mutaciones”, fue creado en la China hacia el año 2000 a.C., y aunque su función es adivinatoria, se le considera la primera formulación del sistema binario.

 

Los antiguos griegos son los precursores “occidentales” de la computación. En la Iliada, de Homero se hace referencia a un autómata que ejecuta funciones humanas. En Roma se utilizó un instrumento similar al ábaco, elaborado con piedritas llamadas “cálculos”, de ahí el nombre de esta rama de las matemáticas. Herón de Alejandría, experto en hidráulica, diseñó un autómata que simulaba ser un actor de teatro.

 

En el siglo XVII, la Revolución Industrial trae consigo una amplia gama de productos comercializables, que hace patente la carencia de un sistema organizado de estadísticas y control. Se necesitaba una nueva clase de instrumentos de cálculo. En 1633, un inglés de apellido Oughtred crea el instrumento conocido hoy como “regla de cálculo” y cuyo uso se extiende hasta épocas muy recientes. El francés Blaise Pascal (1623-1662) inventó, en 1642, una máquina que podía efectuar mecánicamente las operaciones de suma y resta con números de doce cifras, conocida con el nombre de “pascalina”. Esta máquina empleaba una serie de ruedas dentadas acopladas de manera que, el avance de un número adecuado de dientes (en total diez por rueda) de cada una de ellas, proporcionaba el resultado del cálculo.

 

En 1670, el filósofo y matemático alemán Gottfried Wilhelm von Leibnitz (1646-1716) perfeccionó la máquina de Pascal construyendo una que se basaba en principios análogos, pero que también podía multiplicar y dividir. Téngase en cuenta que este mecanismo conocido como “rueda dentada de Leibnitz”, todavía se utilizaba en las calculadoras mecánicas de gran difusión hace pocos años.

 

La contribución de Leibnitz a lo que luego se convertiría en la informática no se acaba con la calculadora. En una obra suya titulada “De Arte Combinatoria”, escrita hacia 1666, teorizó (refiriéndose al cálculo combinatorio)  “un método general en el que toda la verdad de la razón debería quedar reducida a una especie de cálculo”, dando así nacimiento a la lógica formal. Estos mismos conceptos, que luego fueron adoptados por el lógico y matemático George Boole y otros, son la base del calculo automático de hoy día.

 

Leibnitz comprendió y sentó claramente la importancia de delegar a una máquina las operaciones de cálculo asociadas con el trabajo científico, escribiendo “ [...] En efecto, no es digno de los hombres de ingenio perder horas esclavizados en el trabajo de cálculo, porque podrían dedicarse tranquilamente a cualquier otra tarea si utilizasen máquinas.” Estos primeros ejemplos de máquinas calculadoras fueron seguidos de varios intentos de diseñar otras por parte de diversos inventores, ningunas de las cuales obtuvo éxito comercial hasta mitad del siglo XIX.

 

En todo caso, hay que precisar que ninguna de las máquinas que se han descrito estaba dotada de una capacidad real de automatización del cálculo, porque la mecanización sólo se aplicaba a operaciones aritméticas sencillas, que siempre debían repetirse manualmente en el caso de cálculos complejos.

 

Una invención digna de mencionar, ligada directamente al desarrollo de la informática, fue la del artesano francés Joseph Marie Jacquard que en 1805, ideó un sistema de control de telares basado en las llamadas tarjetas perforadas. Mas adelante, estas tarjetas fueron, durante largo tiempo, uno de los métodos más utilizados para introducir datos y programas en los computadores y para analizar los resultados.  

 

En el siglo XVIII se realizan importantes avances en la relojería y se popularizan los autómatas. Jaques de Vaucansons (1709-1782) alcanzó gran popularidad  con algunos de sus autómatas, como el pastor provenzal que interpretaba veinte canciones diferentes con una flauta en una mano y un tambor en la otra, realizando los mismos movimientos de un hábil músico. Los trabajos de los hermanos Jaquet – Droz son verdaderos anticipos de los autómatas posteriores: construyen un escribano, el cual copia frases preestablecidas; un dibujante que realiza gráficos inscritos en una “memoria” mecánica y un músico, que interpreta canciones almacenadas en cilindros.

 

 

Las primeras máquinas calculadoras                       

 

En el siglo XIX por fin se logra la creación de máquinas de cálculo confiables y rápidas. Entonces ocurre un hecho definitivo en el origen de la computación: William S. Burroughs construye una sumadora que almacena el resultado, siendo la primera máquina de cálculo que imita la memoria humana. Pero el hecho más importante del siglo XIX es la concepción de una verdadera máquina procesadora de información que autorregula sus funciones. El inglés Charles Babbage (1791-1871) presenta en 1821 ante la Royal Astronomical Society la primera máquina capaz de resolver ecuaciones polinómicas; ésta funcionaba mediante él calculo de diferencias consecutivas entre conjuntos de números, por eso llamada “Máquina de Diferencias”.

 

 

La máquina analítica de Babbage

 

Los trabajos de Babbage culminaron con la invención, en 1833, de la Analytical Engine (máquina analítica). Aunque esta máquina nunca llego a realizarse, tanto por problemas financieros de su inventor, como por las dificultades que comportaban la complejidad y la precisión de los dispositivos mecánicos necesarios.

 

El proyecto comprendía una unidad aritmética de cincuenta cifras decimales (llamada mill, molino) y, por primera vez, una memoria interna, (store, almacén) en la que realizar las operaciones, compuesta de mil registros de cincuenta cifras cada uno. Adoptando la idea de Jacquard, Babbage concibió un sistema de control basado en tarjetas perforadas que, en este caso, eran de dos tipos: tarjetas operativas para definir las operaciones que debían realizarse y tarjetas variables para especificar las direcciones de memoria.

 

También estaba prevista una “impresora” para hacer permanentes los resultados de los cálculos. Para dar una idea de las prestaciones de la máquina analítica, considérese que las velocidades de cálculo previstas eran de un   segundo para las sumas y las restas y de  un  minuto para las multiplicaciones y las divisiones.

 

A pesar de no haberse realizado, el proyecto de Babbage era extraordinario por su intuición y ambición, porque en el se planteaban objetivos que eran del mismo orden que los de las máquinas de cálculo de un siglo más tarde. Hay que mencionar que un grupo de investigadores británicos construyo, en 1991, un ejemplar de la máquina de las diferencias basándose estrictamente en los dibujos originales de Babbage. Como prueba de la valides de sus conceptos la máquina funciona perfectamente.

 

La programación de la máquina analítica de Babbage fue estudiada principalmente por su colaboradora Augusta Ada Byron (1815-1852), condesa de Lovelace e hija del gran poeta inglés. Entre otras cosas, ideo un lenguaje de programación de máquina e introdujo conceptos como “ciclo repetido, anidamiento y variable índice”. Algunos historiadores consideran a Babbage y a lady Lovelace como los verdaderos inventores del moderno computador digital.

 

 

Los estudios de Boole

 

Poco después de los trabajos de Babbage hay una etapa fundamental de la prehistoria informática, con la publicación de los trabajos del matemático ideológico británico George Boole (1815-1864). En Mathematical Analysis of Logic (1848) y, sobre todo, en An investigatión on the Laws of Thought (Una investigación sobre las leyes del pensamiento, 1854), Boole introdujo el empleo de postulado y axiomas en la lógica y la reducía a una forma algebraica, por lo que podía tratarse de manera simbólica y formal.                                                  

 

En palabras del mismo Boole, logró “dar expresión [...] a las leyes fundamentales del razonamiento en el lenguaje simbólico de un calculo” El  sistema algebraico que se derivó, llamado “álgebra booleana”, es el fundamento de los sucesivos desarrollos de la lógica matemática así como de la moderna ciencia de los computadores, tanto directamente como a través de los trabajos realizados, por ejemplo, por Turing y Von Neumann.

 

 

La máquina de Hollerith

 

También en el siglo XIX comienza el problema del tratamiento de grandes masas de datos. En EE.UU., la ley había establecido un censo de población cada cuatro años, lo cual era imposible con los métodos manuales tradicionales. Hermann Hollerith (1860-1929), ingeniero estadístico, fue contratado para desarrollas un procedimiento  mecánico que posibilitara el tratamiento de los datos  recogidos del censo; Hollerith construye su máquina estadística, que utiliza tarjetas perforadas, para analizar y tratar los datos registrados en las mismas. La máquina se empleó con éxito para procesar los datos del censo  de los Estados Unidos en 1890.

 

Es interesante observar que una sociedad fundada por Hollerith para comercializar su invento, la Tabulating Machine Company, constituyo el núcleo originario de la que después se convertiría en la International Business Machine Corporatión, más conocida como IBM, una empresa destinada a tener un papel clave en la historia de la informática y, todavía hoy la mayor fabricante de computadores.                 

 

A pesar de tener una importancia marginal para la informática  propiamente dicha, es necesario mencionar aquí, aunque brevemente, los “calculadores analógicos”.

 

 

De los calculadores analógicos a los digitales

 

El primer cuarto del siglo XX vio el nacimiento y la difusión de varios modelos de calculadores analógicos, que podían efectuar cálculos integrales y diferenciales. Se basaban en las ideas de físicos y matemáticos del siglo anterior, como los británicos Maxwell y Kelvin. Estos calculadores estaban realizados originalmente con sistemas mecánicos compuestos de engranajes y poleas, que luego fueron sustituidos por dispositivos electromecánicos. Un ejemplo notable de este tipo de dispositivos fue el “analizador diferencial”, propuesto en 1927 por Vannevar Bush, del Massachusetts Institute of Technology.

 

Las dos guerras mundiales dieron un ulterior impulso al desarrollo y al empleo de los computadores  analógicos que, entre otras cosas, se utilizaron para él calculo de las trayectorias en los sistemas de dirección de tiro de la artillería pesada.

 

Como ya se ha dicho, los instrumentos de cálculo analógico cedieron el paso a los de tipo digital (salvo determinadas aplicaciones) en la evolución de la informática.

 

Uno de los motivos de este echo ya fue observado en los años treinta por Von Neumann, que descubrió que la duplicación de la precisión de una máquina digital (que corresponde al numero de cifras significativas) conduce a una duplicación de los costes, mientras que la adición de un decimal a una máquina analógica comporta un aumento del gasto de, por lo menos, diez veces.

 

La máquina de Turing    

 

Un importante paso en la formulación de los conceptos teóricos en que se basa el funcionamiento de las máquinas de cálculo digitales lo dio, durante el año 1936, el matemático británico Alan Mathison Turing (1912-1954), con la publicación de un ensayo titulado “On computable numbers” (Sobre los números calculables). En este trabajo, el autor definió a nivel abstracto, una máquina de calculo universal programable conocida con el nombre de “máquina de Turing”.

 

Además, contribuyo al campo de estudio hoy conocido como “inteligencia artificial” proponiendo un método para determinar “la capacidad de pensar”  de las máquinas.

 

Durante el mismo periodo, otro acontecimiento al que se le atribuye una importancia fundamental fue la aplicación (en 1938) del álgebra de Boole al análisis y a la implementación de los circuitos electromecánicos y  electrónicos realizada por el ingeniero matemático estadounidense Claude Eldwood Shannon (n.1916).

 

 

Los calculadores electromecánicos

 

Desde el punto de vista experimental y practico, la historia del moderno computador empieza a finales de los años treinta, a cargo de cuatro investigadores que llegaron a sus resultados de manera independiente: los estadounidenses Aiken, Atanasoff y Stivitz, y el alemán Zuse.

 

Konrad Zuse, del Politécnico de Berlín, fue, a partir de1934, el primero en utilizar los relés electromecánicos en la realización de máquinas de cálculo. En 1941 construyó, en el salón de su casa, tres máquinas que llamó Z1, Z2 y Z3, la última de las cuales podía utilizar números en coma flotante y de veintidós bits (catorce para la mantisa, siete para el exponente y uno para el signo). Sin embargo, sus importantes trabajos tuvieron escasa difusión internacional.

 

George Stivitz de los Bell laboratories, introdujo a partir de 1937 la representación de cifras decimales mediante la codificación binaria y aplicó este concepto a una máquina de relés construida en 1939.

Esta máquina estaba controlada a distancia con un teletipo, pero no era programable. Esta ultima característica fue introducida en los modelos perfeccionados que se desarrollaron sucesivamente a partir del modelo original.

 

En 1937. Howard Aiken realizo, en la Universidad de Harvard, un calculador electromecánico programable conocido como Mark I. Aiken llegó a este resultado gracias a la colaboración de IBM que puso a su disposición toda su experiencia en el campo mecanográfico.

 

La arquitectura de la máquina de Aiken (arquitectura Harvard) preveía la separación de las instrucciones y los datos, volviendo con ello a los conceptos de Babbage. Las instrucciones eran leídas por tarjetas perforadas, mientras que los datos se introducían mediante tarjetas o con el accionamiento de unos conmutadores electromecánicos adecuados.

 

 

Los calculadores electrónicos

 

Entre 1939 y 1942, John Atanasoff, de la Universidad de Iowa, concibió, y en parte realizo la primera unidad de procesado constituida enteramente por componentes electrónicos (válvulas de vacío) en lugar de relés. Otra característica fundamental de la máquina de Atanasoff era la representación binaria de los números, cuya memorización podía obtenerse cargando positiva o negativamente cerca de 1.600 condensadores dispuestos a lo largo de un tambor.

 

Los trabajos de Atanasoff fueron interrumpidos por la entrada en guerra de Estados Unidos y ya no se reanudaron. Esto contribuyo a privar a Atanasoff del debido reconocimiento como padre del calculador electrónico. Sus méritos no fueron reconocidos hasta los años setenta, cuando una sentencia legal declaro que el ENIAC, considerado hasta entonces como el primer calculador jamás construido, derivaba de sus trabajos.

 

 

El ENIAC

 

Los años 1943 a 1946 vieron la realización, en la Universidad de Pennsylvania, del ENIAC (Electronic Numerical Integrator And Computer, calculador e integrador numérico electrónico) a cargo del ingeniero John Presper Ecker y del físico John William Mauchly, ambos de nacionalidad estadounidense.

 

El ENIAC fue el primer calculador electrónico que  funciono realmente. Este resultado fue posible en gran parte por los recientes progresos en la tecnología electrónica debidos a la difusión de la radio de válvulas y a las investigaciones militares efectuadas en el período bélico.

 

La máquina tenia 30 metros de longitud y 2,5 metros de anchura; sus 18.000 válvulas termoiónicas y sus 1.500 relés disipaban una potencia de 150 kilovatios: Estaba equipada con una unidad aritmética decimal de diez cifras, con un número fijo de decimales, y con una unidad dedicada a la extracción de raíces cuadradas. El tiempo medio de una suma era de 0,2 ms (milisegundos), mientras los de multiplicación y división eran, respectivamente, de 2,8 y 6 milisegundos.

 

Sin embargo, la limitación más importante de la máquina era que sólo podía programarse por Hardward, que, en el caso del ENIAC, significaba el accionamiento manual de conmutadores y la conexión con cables entre las diversas partes, unas operaciones particularmente lentas. Esto hacia que el ENIAC “sólo” fuese en realidad doscientas o trescientas veces más rápido que la máquina de Aiken, a causa de la laboriosa introducción de datos. Sin embargo, este resultado solo constituyó el preludio de otros y más sofisticados resultados.

 

 

La máquina de Von Neumann

 

En 1945, el gran matemático estadounidense de origen Húngaro Johann L. Von Neumann (1903-1957), publico un informe en el que se presentaba, en el marco de un proyecto denominado EDVAC (Electronic Discrete Variable Automatic Computer, calculador electrónico automático de variables discretas). El concepto  fundamental de programa residente en memoria. En base a este concepto, el conjunto de instrucciones que la máquina debía ejecutar, es decir, el programa, se conservaba en una memoria y se cargaba para su ejecución de manera análoga a los datos por procesar y, en ciertos aspectos no se distinguían de estos últimos: los dos tipos de información concurrían para formar lo que hoy se llama software.

 

En un articulo del año siguiente Von Neumann completo esta formulación aplicándola a un nuevo proyecto de computador mucho más avanzado, que se realizó en 1952 en el Institute for Advanced Studies de la Universidad de Princeton, New Jersey (de ahí el nombre IAS dado a la máquina). La estructura general de los calculadores que se basan en los conceptos introducidos por Von Neumann (las llamadas máquinas Von Neumann) es la adoptada en la mayor parte de los actuales computadores. 

 

 

Los calculadores modernos

 

Un año antes de la terminación del IAS entró en funcionamiento el Whirlwind I en  los Bell Laboratories, construido por Maurice Wilkes, basado también en las ideas de Von Neumann.

 

Fue probablemente con el Whirlwind que apareció un dispositivo de salida de rayos catódicos, el progenitor de los modernos monitores.

 

El IAS y el Whirlwind pueden considerarse como los primeros calculadores modernos de la historia y, entre otras cosas, dieron origen a la primera generación de calculadores destinados a un uso comercial.

 

El modelo conceptual en el que se basaban, conocido también como máquina de Von Neumann, es ahora la base de la mayor parte de los calculadores. Durante la fase de realización de la máquina se utilizaron por primera vez las llamadas memorias Williams, inventadas en 1948 por el británico F.C. Williams, que se basaban en tubos de rayos catódicos normales. Esta tecnología fue la estándar para las memorias que debían funcionara alta velocidad, hasta la introducción de las memorias de núcleos magnéticos.

 

En lo que respecta al nivel de las prestaciones considérese, por ejemplo, que el IAS podía procesar números de 40 bits con una memoria de 1.024 bytes y un tiempo de acceso de 25 microsegundos (millonésimas de segundo) y podía efectuar una suma en 15 microsegundos y una multiplicación en sólo 400 microsegundos.

 

Todo esto se había realizado con el empleo de solo 2.300 válvulas termoiónicas. Estos resultados fueron posibles no sólo gracias a las teorías aportadas por Von Neumann sino también a los notables progresos que se lograron en el campo de los conductores eléctricos y a los estudios efectuados sobre la dispersión de  potenciales: estos últimos permitieron una mayor facilidad en el diseño y la construcción de los dispositivos electrónicos que hay actualmente en el mercado.

 

 

Las generaciones de los calculadores digitales

 

A parir de 1945, la evolución de las máquinas de cálculo (y por tanto de la informática) esta estrechamente ligada a la de la electrónica y de las tecnologías relacionadas con ella (la definición de calculador electrónico coincide con la de calculador digital). En consecuencia, a partir de aquel año, se acostumbra a subdividir la historia de la evolución del computador en varias generaciones tomando como base las nuevas tecnologías empleadas. Naturalmente, a cada generación le corresponde un progreso en términos de arquitectura y técnicas de programación, posibilitadas por la innovación tecnológica.

 

Las generaciones son las siguientes: la primera, de 1945 a 1955, empleaba válvulas de vacío; la segunda, de 1955 a 1965, se basaba en el transistor; la tercera, de 1965 a 1975, en los microcircuitos de baja y media integración; y la cuarta, de 1975 hasta hoy, aprovecha las posibilidades que ofrece la integración de circuitos de gran y muy grande escala de integración (en realidad, para poner de relieve las innovaciones de los años noventa, las generaciones de computadores actual y próxima se conocen como la quinta).

 

 

La primera generación

 

Está constituida la primera generación por los primitivos calculadores comerciales, cuya difusión empezó a finales de los años cuarenta. De éstos, el IAS y el Whirlwind I constituían los prototipos. Estas máquinas se caracterizaban por un precio exorbitante, un notable volumen y una fiabilidad escasa. La escasez de memoria hacía prácticamente imposible dotarlas de un sistema operativo y su  programación, en lenguaje máquina, era extremadamente laboriosa y difícil. Básicamente, se trataba de máquinas accesibles solamente a las entidades gubernamentales o a las grandes empresas, y su empleo estaba reservado a especialistas.

 

En esta fase (y en las siguientes), IBM desempeño un papel crucial, tanto desde el punto de vista de la producción y la comercialización, como del de la innovación tecnológica.

 

El primer computador comercial  IBM  el modelo 701, fue instalado  en la oficina de cálculo técnico de la firma Nueva York en diciembre de 1952. El primer cliente fue el laboratorio científico de Los Álamos, donde la máquina se entregó a principios del año siguiente y, durante un cierto tiempo, la potencia de cálculo disponible en uno de los santuarios de la investigación (también estratégica y  militar) estadounidense dependió directamente de los progresos efectuados por IBM.

 

 

La segunda generación

 

Llevo consigo la segunda generación las radicales mejoras que aporto el empleo del transistor, inventado en 1948 y comercializado pocos años después. Este período también  vio la introducción del circuito impreso,  que permitió la construcción modular y más compacta del hardware. De las memorias de válvulas se paso a las de núcleos magnéticos, en las que la información se almacenaba como  direcciones de magnetización de unos pequeños núcleos de ferrita.

 

En lo que respecta a las memorias de  masa, se pasó de los tambores magnéticos a los discos leídos por cabezas móviles, obteniéndose así una notable reducción de los tiempos de acceso a las memorias.

 

En lo referente a las arquitecturas, se introdujeron diversos conceptos fundamentales, como los canales de entrada y salida, las técnicas de interrupción, las CPU de registros generales, etc.

 

A esta generación  corresponde también el  desarrollo de los lenguajes de alto nivel, que facilitan la programación por hacerla accesible a un mayor número de usuarios. Entre los lenguajes todavía en uso, cabe citar el Fortran (1956), el Algol, el Cobol , el LISP (1960) y el Basic (7962) .

 

En este período se efectuaron notables desarrollos también en el software de base y en los sistemas operativos: los supervisores, los cargadores y los compiladores fueron introducidos en buena parte durante aquellos años, así como la multiprogramación, es decir, la ejecución simultánea de varios programas.

 

 

La tercera generación

 

Se caracterizo la tercera generación por la integración de los circuitos lógicos, después de la introducción de los circuitos integrados por Kilby, Noyce y Moore a final de los años cincuenta.

 

Los progresos se hicieron en l a reducción del tamaño y de la disipación de los circuitos impresos multicapas y las memorias de semiconductor.

 

También nacieron otros lenguajes, como el Pascal y el C, así como la memoria virtual, la memoria caché, las redes de computadores, los procesadores paralelos, los canalizados y el tiempo compartido. Lenguaje y compiladores fueron integrados en entornos de programación gestionados por sistemas operativos.

 

La innovación más notable de la tercera generación fue la introducción, en 1971, de los microprocesadores, es decir, de los circuitos integrados que reúnen todas las funciones de una CPU completa, y l a consiguiente aparición de los microcomputadores, los calculadores basados en un microprocesador y, por tanto, particularmente compactos.

 

 

La cuarta generación

 

ha visto la cuarta generación un refinamiento de las tecnologías de la microelectrónica, concretado en la introducción de los chips a gran y muy grande escala de integración (Large Scale Integratión, LSI, y Very Large Scale Integratión VLSI). Como resultado de esto, los microprocesadores han alcanzado los niveles de complejidad y de potencia de cálculo que antes eran una prerrogativa de las CPU tradicionales.

 

Además, su capacidad y la consiguiente reducción de tiempo de tránsito de las señales por su interior han permitido el empleo de frecuencias de funcionamiento, a de reloj, cada vez mayores. Las memorias de semiconductor también han visto muy aumentada su capacidad todo ello siempre con unos costes cada vez menores.

 

En lo que respecta a las arquitecturas, se ha asistido al establecimiento definitivo del cálculo distribuido, es decir, el efectuado en paralelo por varias CPU, de las redes locales, de los sistemas de multiprocesador etc.

 

La potencia de los computadores centrales (mainframes) de las décadas anteriores está ahora concentrada en los microcomputadores de sobremesa y las prestaciones de las máquinas más potentes, los llamados supercomputadores, han alcanzado niveles antes impensables, con puntas de miles de millones de complejas operaciones matemáticas por segundo.

 

La investigación en el campo del software se ha orientado hacia el soporte adecuado de las mencionadas innovaciones arquitectónicas, con la introducción de sistemas operativos más sofisticados y de lenguajes específicos como el ADA, desarrollado para las fuerzas armadas de Estados Unidos a finales de los años setenta.

 

 

El ordenador personal

 

El fenómeno que más a caracterizado la cuarta generación es la aparición del ordenador personal, es decir, de ordenadores pequeños y económicos diseñados para ser utilizados por un solo usuario. El primer ordenador personal, el Altair, lo comercializo en forma de kit la firma estadounidense MITS en 1975. El Altair tenía un microprocesador de 8 bits y 256 bytes de RAM, el sistema de entrada consistía en una fila de interruptores y el de salida en una fila de diodos LED: el conjunto costaba poco menos de 400 dólares.

 

La entrada en el mercado de una firma de grandes dimensiones no se produjo hasta 1977, cuando Tandy Corporation presento su modelo, que se impuso rápidamente gracias a nuevas características, como la programabilidad, un teclado, una pantalla de rayos catódicos y la posibilidad de memorizar informaciones en casetes intercambiables.

 

Poco después de la presentación dl nuevo modelo de Tandy, dos jovencísimos técnicos y programadores, Steven Jobs y Robert Wozniak fundaron, inicialmente con medios realmente modestos, una empresa para la producción de ordenadores personales, la Apple Computers, esta firma, que pronto conoció un rápido crecimiento en el mercado mundial, tenia como cede inicial un garaje que servia de laboratorio y de taller de producción.

 

En el transcurso de los años los productos de Apple, muy innovadores han introducido en el mercado de los ordenadores personales importantes innovaciones, como la memoria expandida, los sistemas de memoria de masa en disco, los gráficos en colores y, sobre todo, un nuevo tipo de interfaz de usuario, basado en el empleo del ratón (mouse) y de ventanas (windows), es decir, de entidades gráficas que permiten una interacción rápida e intuitiva entre los diversos programas en ejecución. Estas dos innovaciones fueron desarrolladas originalmente en el centro de investigaciones de Xerox Corporation.

 

Sobre la ola del clamoroso éxito comercial de los microordenadores, en 1981, IBM  presento su propio modelo, cuyo nombre Personal Computer, pasaría a designar todo una categoría. Aunque no se trataba de una máquina de vanguardia, la importancia y el peso comercial de la marca decretaron la rápida difusión de su ordenador.

 

La política comercial de IBM, que opto por una máquina de arquitectura abierta (especificaciones disponibles para eventuales terceras partes fabricantes), favoreció la proliferación de los llamados clones compatibles con IBM, es decir de máquinas que podían funcionar exactamente como las de IBM (gracias al empleo del mismo software) a pesar de ser de otras marcas.

 

Todo esto contribuyo, por una parte, al logro de una posición hegemónica en el mercado del ordenador personal de IBM (y los compatibles) y, por otra parte, a la informatización general de toda la sociedad humana.

 

Traduzca mi Pagina
 
Publicidad
 
Buscador
 
Búsqueda personalizada
Anuncios
 
Contador de Visitas
 
Informacion de tu Pc
 
IP
 
Hoy habia 4 visitantes (66 clics a subpáginas) ¡Aqui en esta página!
=> ¿Desea una página web gratis? Pues, haz clic aquí! <=