You are on page 1of 15

HISTORIA DE LA COMPUTADORA

https://www.curiosfera.com/historia-de-la-computadora-y-su-inventor/

Una computadora electrónica, según el Diccionario de la Real Academia Española, es


una: Máquina electrónica, analógica o digital, dotada de una memoria de gran capacidad
y de métodos de tratamiento de la información, capaz de resolver problemas
matemáticos y lógicos mediante la utilización automática de programas informáticos.

La computadora es un invento joven de no más de un siglo. Sin embargo es el resultado


de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un
lado, el ábaco que fue uno de los primeros dispositivos mecánicos para contar; por otro
lado, la Pascalina, inventada por Blaise Pascal y después perfeccionada por Gottfried
Wilhelm von Leibniz, permitía realizar cálculos de manera mecánica por medio de
engranajes, y también, la tarjeta perforada asumió un papel importante en la
computación.
En 1882 Charles Babbage inventa una “máquina diferencial”, que realiza cálculos de
tablas simples. Diez años más tarde diseña la “máquina analítica”, que no fue construida
hasta 1989. Esta máquina poseía elementos que influyeron en las subsiguientes
computadoras: flujo de entrada, memoria, procesador e impresora de datos. Por esto,
Babbage es considerado el "Padre de las Computadoras Modernas".
En 1944 se construye la MARK I, diseñada por un equipo encabezado por Howard H.
Aiken. La máquina basa su funcionamiento en dispositivos electromecánicos llamados
relevadores.
Von Neumann es otro personaje importante ya que proyecta el prototipo de los
modernos procesadores electrónicos. El prototipo se basa en el concepto de programa
memorizado.
A partir de la mitad del siglo XX el desarrollo de la computadora es mayor y más rápido.
Este desarrollo se suele dividir en generación.

Primera Generación
En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de
vacío); segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas
perforadas, y finalmente, por ser enormes y costosas.

Segunda Generación
Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de
bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para
nuevas aplicaciones.

Tercera Generación
Al igual que las generaciones pasadas, tiene tres características:
I. Ahora utiliza circuitos integrados.
II. Utiliza sistemas operativos. El más famoso es el OS de IBM.
III. Aparecen minicomputadoras.

Cuarta Generación
Se dice que es la generación actual, aunque mucho ya mencionan una quinta.
En esta generación aparecen los microprocesadores, los núcleos magnéticos son
remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de cambios
que continúan apareciendo día con día.
Pensar que existian maquinas que
ocupaban cuartos enteros para hacer lo que esta ventanita hace.

Se puede considerar que el pionero en esta lucha contra la limitación


material y la capacidad espiritual fue el matemático y científico
británico Charles Babbage (1791-1871).

Charles Babbage
Fue él quien primero vio la posibilidad, en 1823, de crear una máquina que hiciera
posible operaciones matemáticas que el hombre no podría realizar a lo largo de una vida
por existir. Eran cálculos matemáticos de tal complejidad que no pueden emprenderse
ya que nadie vive lo suficiente para verlos acabados.
Babbage convenció al gobierno inglés para que financiara su “ingenio analítico” capaz
de solucionar todo tipo de cálculos. (Tal vez te interese: La historia de los números).
Los esfuerzos de Babbage se unieron a los de Herman Hollerith (1860-1929) que estaba
confeccionando el censo de Estados Unidos y tenía el problema de que apenas había terminado el
censo de un ciclo temporal ya tenía que comenzar el próximo, dada la cantidad de tiempo que llevaban
los cálculos y tabulaciones.
Máquina de Herman Hollerith
Herman Hollerith fue la persona que introdujo las primeras
tarjetas perforadas para almacenar información. Con este
revolucionarios sistema para la época, consiguió reducir el tiempo a la
mitad.

Como curiosidad, existió una especie de computadora que funcionó


a vapor. El programa de operaciones se almacenaba en una cinta
perforada, método que todavía se seguía empleando en los años
sesenta.

La idea procedía del sistema de cartulinas perforadas utilizado en el año


1801 por Joseph Marie Jacquard (1752-1834) para hacer que los
telares urdiesen complicados tejidos.

Máquina de calcular Pascualina


Pero el primer ordenador nunca llegó a completarse; de cualquier
forma, si hubiera sido desarrollado del todo no hubiera dado resultados
ya que no existía tecnología suficiente: funcionaba con palancas, bielas,
ruedas dentadas, engranajes pesado y lentos que no permitían realizar
cálculos rápidos.

Solo los electrones, cuya velocidad se aproxima a la de la luz, podrían


llevar a cabo los sueños del padre del ordenador. Al finalizar, es posible
que también te interese conocer quién inventó el teléfono.

Historia de la computadora siglo XX


El primer esbozo de un computador moderno lo acometió en 1930
el ingeniero alemán Konrad Zuse (1910-1995). Construyó una
calculadora que ya operaba según el modo binario: la Z1. Con aquel
ingenio se podía realizar una multiplicación compleja en tres segundos.
Primera computadora moderna: la Z1 de Konrad Zuse
En 1940 propuso al gobierno alemán financiar su desarrollo, crear una
máquina de pensar y resolver de forma rápida cualquier problema, pero
Adolf Hitler no le hizo caso.

Se considera que en 1942 John Vincent Atanassoff inventó la


primera computadora digital. Por tanto, no si gran polémica y
disputas, se considera al ingeniero electrónico estadounidense John
Vincent Atanassoff (1903-1955) el inventor de la computadora. Pero

de ello hablamos con detalle un poco más abajo.

Al comienzo de la Segunda Guerra Mundial los especialistas ingleses en


cálculo buscaban la forma de decodificar los mensajes secretos
alemanes y encargaron el asunto al húngaro Alan Mathison
Turing (1912-1954) inventor de una máquina de calcular que lleva su
nombre.
La primera computadora se ensambló en 1943 en Bletchley, nos
referimos al computador electromecánico llamado Colossus. El enorme
aparato podía tratar cinco mil caracteres por segundo, para lo que
requería de más de dos mil lámparas.

Esta máquina podía descifrar los mensajes de la inteligencia alemana,


pero no era exactamente un ordenador.

Al tiempo que Turing trabajaba en Londres, Estados Unidos buscaba la


forma de poner al día la máquina de Babbage. En 1944 el
ingeniero Howard H.Aiken (1900-1973) daba a conocer su máquina:
el Harvard Mark 1, financiada por IBM y se mejoró la calculadora de
Babbage.
Paso importantísimo fue dado en 1946 con el computador electrónico
ENIAC o Electronic Numerical Integrator and Computer de John
Presper Eckert (1919-1995) y John William Mauchly (1907-1980).

El invento se debió al encargo hecho a los científicos citados por el


ejército norteamericano necesitado de una máquina rápida para
calcular la trayectoria de los proyectiles.

Como curiosidad, decir que aquel aparato era inmenso: pesaba 30


toneladas que ocupaban una superficie de 170 m2. Su cableado tenía
varios kilómetros y utilizaba 18.000 válvulas de radio (ver historia de la
radio), que consumían gran cantidad de electricidad. Pero se
calentaban tanto y tan deprisa que su refrigeración suponía un
problema adicional.

A pesar de todo, el armatoste tenía una capacidad de proceso mil veces


inferior a la de un ordenador personal o PC de los años noventa, y
no podía almacenar ni la milésima parte de información.
Pero la llegada e introducción de la electrónica hizo posible contar con
un factor nuevo de capital importancia: la velocidad operativa. Un
paso importantísimo dentro de la historia de la computadora y
su evolución.

El ordenador con programación almacenada nacería hacia 1948; lo


lanzó IBM con una revolucionaria idea fruto de las investigaciones
de John von Neumann (1903-1957) de la Universidad de Princeton,
en New Jersey.

La presentación de esta primera computadora electrónica de la


Historiatuvo lugar en Nueva York, el 24 de enero de 1948: el
modelo IBM SSEC, dotado de 13.500 lámparas al vacío y 21.000 relés.
Consistiendo su primera prueba en sumar 3.500 números de 14 cifras
decimales cada uno, en un solo segundo.

Pero la computadora moderna solo fue posible con la invención del


transistor en 1947. El término fue idea de Maurice Perret, científico
francés a quien en 1955 pidió consejo un alto cargo de IBM sobre cómo
llamar a aquellas nuevas máquinas.

Propuso el de computadora u ordenador, término que procedía de la


Teología, donde figura como uno de los adjetivos que se aplicaban a
Dios “Ordenador del mundo”.
A principio de los años 60 los chips, microchips y circuitos
integradosentraban en escena. Disminuyendo el tamaño de las
computadoras y aumentando su potencia sensiblemente.

La década de 1970 fue la de


las supercomputadoras o superordenadores, máquinas pensantes
que en los años ochenta ya habían llegado a una gran perfección.
El ETA 10 (1987) podía realizar 10.000 millones de operaciones por
segundo.

Poco tiempo después, en 1988, la empresa Cray creó la Y-MP creaba


un supercomputador que costaba veinte millones de dólares y utilizaba
tecnología de alta densidad y un sistema de refrigeración muy eficiente.

El mundo de las computadoras es todavía un universo en expansión al


que no se le ve límite porque su complejidad y posibilidades son
infinitas.

Prueba de ellos es que desde hace muchos años se viene cumpliendo la


denominada Ley de Moore, una teoría que indica que
aproximadamente cada dos años se consigue duplicar el número de
transistores en un microprocesador.

Quién inventó la computadora


Lo cierto es que es muy complejo atribuir a una única persona el
descubrimiento o la invención de las computadoras. Para muchos
expertos, son diversas las personas que contribuyeron con sus
creaciones, ideas y conocimientos para que este ingenio viese la luz.

Muchos investigadores concentraron sus esfuerzos en el diseño de


una máquina de cálculo digital. Pero si existe una persona a la que
se le puede atribuir el primer prototipo de computadora al
ingeniero electrónico y físico Estadounidense de origen Búlgaro John
Vincent Atanassoff, nacido en New York el 4 de Octubre del año
1903.

Atanassoff realizó diversos estudios y experimentos sobre la realización


de cálculos matemáticos mediante aparatos o máquinas analógicas,
ya que no había otra alternativa en su tiempo.

Según palabras de Atanassoff, estos ingenios eran muy imprecisos y


lentos. Por este motivo, era necesario la invención de una máquina de
cálculo mucho más eficiente, veloz y fiable que las que existían.

No dudó en ponerse manos a la obra y en 1933 comenzó un laborioso


proceso de desarrollo e investigación sobre el tema. El objetivo final no
era otro que conseguir lo que se conoce hoy en día como el primer
computador u ordenador digital.
Con la ayuda, colaboración y asistencia del ingeniero eléctrico
estadounidense Clifford Berry (1918-1963), enfocaron sus esfuerzos
en cuatro pilares o conceptos:

1. Electrónica para los componentes operativos


2. Sistema binario para la realización de cálculos
3. Condensadores para el almacenamiento de datos
4. Sistema lógico para la realización de cálculos.

Tras unos
pocos años, en 1942 se presentó el primer prototipo de
computadora. Le pusieron el nombre de ABC (acrónimo
de Antanassoff-Berry Computers). Dicho artefacto es considerado
como la primera computadora digital del mundo.

Como curiosidad, decir que Antanassoff cometió el error de no patentar


su invento al momento. Esto provocó que Jhon Mauchly (1907-1980)
intentara adelantarse y les llevara a ambos a un extenso proceso
judicial. Finalmente, en el año 1972, se le otorgó el mérito de ser el
padre de la computadora a Antanassoff.

Historia del ordenador personal y su inventor


Un ordenador es una máquina que procesa y almacena datos según
determinadas instrucciones. Aunque los ábacos o las calculadoras
mecánicas podrían entrar dentro de esta categoría, se consideran
ordenadores aquellos aparatos que se pusieron a funcionar a mediados
del siglo XX.

Eran máquinas gigantes destinadas a trabajos muy específicas y que


consumían unas cantidades enormes de energía. Pero, como ocurre con
todo, poco a poco se fueron mejorando los diseños y la tecnología, y
aquellos monstruos se fueron convirtiendo en más y más pequeños.

Sin embargo, en aquel tiempo a nadie le pasaba por la cabeza tener un


ordenador en casa. Simplemente, no veían ninguna utilidad.

Los ordenadores, que también se llamaban computadoras o,


incluso, cerebros electrónicos, eran útiles para los científicos, que
hacían cosas muy complicadas, o para enviar una nave a la Luna, o
quizás tenía aplicaciones militares, para decodificar mensajes cifrados
del enemigo. ¿Pero en casa?

De hecho, el concepto de ordenador personal no apareció hasta


1964, cuando, en un artículo en la revista New Scientist, Arthur L.
Samuel escribió: “hasta que no sea viable obtener una educación en
casa a través de nuestro ordenador personal, la naturaleza humana no
habrá cambiado.”
En aquel tiempo se estaban empezando a aplicar los circuitos
integrados que darían lugar a una nueva generación de ordenadores, y
en los años setenta aparecieron unos microordenadores que había
que conectar a la pantalla del televisor y que servían básicamente para
jugar.

Los juegos eran muy sencillos vistos desde la perspectiva actual, pero
aquellas máquinas tuvieron dos efectos: se perdió el miedo de los
ordenadores y apareció una generación de jóvenes a los que les
interesaba la informática.

Todo ello permitió que en 1981 IBM hiciera historia con su primer PC.
De hecho, el éxito fue tan grande que el término ordenador personal
pasó a querer decir “ordenador compatible con un IBM”.

En realidad, los ordenadores Apple habían triunfado un poco antes con


un ordenador, el Apple II, que fue un gran éxito en Estados Unidos.
IBM tuvo la vista de copiar las características de la Apple, pero con un
sistema de ventas y promoción más efectivo.
En pocos años las empresas se llenaron de ordenadores, que permitían
hacer automáticamente mucha del trabajo que se hacía a mano. La
diferencia principal con los grandes ordenadores militares o científicos
era que estas nuevas máquinas no servían para nada en concreto y
servían para todo en general.

Los ordenadores de los cohetes Apolo podían llevar una nave hasta la
Luna calculando la trayectoria, la velocidad o la aceleración, pero no
servían para nada más. En cambio, los ordenadores personales estaban
a tu disposición preparados para funcionar según los programas que
pusieras.

Esta versatilidad hacía que el mismo ordenador el utiliza el niño para


jugar, el empresario para controlar pedidos, el escritor para escribir una
novela o el científico para hacer sus cálculos.

El Ordenador accionado por voz


El primer ordenador capaz de comprender mensajes orales y
responder con una voz sintética, diseñado por los norteamericanos
B. Martins y R. B. Cox en 1973, fue realizado dos años más tarde, en
1975, por la firma británica E.M.I.-Threshold.

Las vibraciones que constituyen la voz humana pueden descomponerse


en varias sinusoides, aplicando las transformadas de Fourier; a
continuación, mediante un sistema de filtros, se miden la frecuencia y
la energía de cada punto de la sinusoide y se traducen a lenguaje
binario.

Cada punto corresponde a una serie de señales (1 y 0) que reflejan la


presencia o la ausencia de 32 características fonéticas agrupadas en
cinco familias, conforme a los principios de la lingüística: vocales,
consonantes, pausas largas, pausas cortas e implosivas.

El ordenador equipado con este sistema de análisis incluye una memo-


ria con 220 palabras de la lengua de que se trate. Cada palabra se
descompone a continuación en 16 intervalos iguales, lo que corres-
ponde a 16 x 32 = 512 bits.

Para aprender a identificar la voz y la elocución de su usuario, el orde-


nador graba la misma palabra diez veces seguidas y de ello extrae una
media normativa que le permite identificar las palabras pronunciadas
(por supuesto, dentro de un vocabulario limitado), aunque la voz del
usuario varíe de tonalidad o de cadencia.

Los registros medios de cada palabra quedan grabados en un casete y


la máquina puede utilizarlas a su vez para emitir las respuestas.

Este sistema, que fue estudiado en Francia (donde no despertó ningún


interés por parte de las firmas comerciales), ha experimentado desde
entonces un notable desarrollo y constituye uno de los principales
rasgos de la nueva generación de ordenadores.

El Microordenador
La aparición del microordenador es fruto, esencialmente, de la con-
currencia de dos factores: la invención del microprocesador y la
irritación que las dificultades de acceso a los grandes ordenadores
producía en los aficionados a la informática.

En 1974 apareció el primer prototipo, diseñado por David Ahl, un


empleado de la D.E.C., segunda firma mundial de ordenadores después
de I.B.M. El aparato tenía el tamaño de un gran televisor (de hecho,
incluía una pantalla de televisión) conectado a un teclado. Ahí lo
presentó a la D.E.C., donde no despertó el más mínimo interés.

Al año siguiente, Steve Wozniak concibió independientemente un nuevo


prototipo, pero tampoco tuvo éxito. Hicieron falta nueve años para que
este invento consiguiera imponerse.

You might also like