ARTÍCULO - El origen de las máquinas computadoras

Las máquinas existen desde que el hombre es hombre. Nos complementan como extensiones de nuestros propios cuerpos y nos permiten ir más allá de nuestros límites. Por ejemplo: una tenaza es una prolongación de nuestra mano que nos permite coger cosas con mucha más fuerza, una cerbatana es una extensión de nuestra boca y nos permite lanzar dardos a gran velocidad y abatir a un animal, un telescopio es una extensión de nuestro ojo, etc.…
Este tipo de máquinas que acabo de mencionar son las denominadas herramientas, que necesitan de una acción por parte del ser humano para funcionar.

"Las computadoras son una extensión de la mente del ser humano"









Artículo por: Asensio López Fernández 

    Nuestro cerebro al igual que nuestro cuerpo tiene límites, y de ahí nació la necesidad de hacer algo que nos permitiese calcular e incluso recordar. Haremos un pequeño paseo a través del tiempo parándonos tan solo en los hitos más importantes.

Al principio de los tiempos, con las primeras transacciones comerciales, el hombre tuvo la necesidad de calcular cantidades importantes de mercancía o del medio de pago utilizado. Para ello comenzaron usando el método más primitivo que se nos pueda pasar por la cabeza, hacían los cálculos a base de hacer montoncitos de piedras. Pero este método era complicado para mantener los datos y para transportarlos, fue por ello por lo que exprimieron sus primitivos cerebros e inventaron el ábaco. 
"Ábaco"
El ábaco se remonta a las civilizaciones Griega y Romana; consta de un marco rectangular en el que se montan diversas varillas. Dichas varillas contenían pequeñas piedras circulares agujereadas y ensartadas previamente. Las posiciones de las piedras representaban los valores almacenados. Sin embargo este elemento no puede ser considerado una computadora, ya que no dispone de su elemento fundamental: un programa.
Y para que veáis que no voy a ser demasiado pesado, vamos a saltar desde la época greco-romana directamente en vuelo Charter hasta la década de 1640, cuando el señor Blas Pascal inventó la Pascalina. 

Blas Pascal era hijo de un importante recaudador de impuestos en Francia. Debía ayudar a su padre con las cuentas continuamente en vez de estar por ahí de fiesta con sus colegas, así que Blas decidió crear una máquina de calcular que le ayudase a automatizar el trabajo y a asegurar la fiabilidad de los datos. Inspirado en el diseño de un sistema de engranajes diseñado siglos antes por Leonardo Da Vinci, el amigo Blas Pascal creó su máquina calculadora: la Pascalina. 
Los datos en la Pascalina se representaban mediante las posiciones en los engranajes, y se introducían manualmente estableciendo dichas posiciones finales de las ruedas, parecido a como leemos los números en el cuentakilómetros de un vehículo actual. 
"La pascalina"
Tras la Pascalina, muchos científicos se esmeraron en construir sus propias máquinas de calcular, pero como no son tan famosos y no hay ningún lenguaje de programación que lleve su apellido, nos teletransportaremos en el tiempo hasta el siglo diecinueve, cuando Charles Babbage, el llamado “padre de la computación”, creó la primera computadora.
"Charles Babbage"
Charles Babbage fue un profesor matemático de la Universidad de Cambridge. Consciente de que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores, decidió crear la que sería la primera computadora de la historia: la máquina analítica. 

Allá por 1823 y con apoyo del gobierno británico se embarcó en la elaboración de un dispositivo mecánico capaz de efectuar sumas repetidas llamado la máquina de diferencias. 
Pero llegó a sus oídos que un fabricante de tejidos francés, apellidado Jacquard, había creado un telar que podría reproducir automáticamente patrones de tejidos leyendo información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Fue entonces cuando decidió abandonar  la máquina de diferencias y dedicarse al proyecto de  la máquina analítica que se podría programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de veinte dígitos.
La tecnología de la época no estaba preparada para hacer realidad sus ideas. El mundo no estaría listo hasta cien años después, sin embargo el amigo Babage continuó perfeccionando su diseño hasta el día de su muerte en 1972.

Fue Ada Lovelace, hija del poeta inglés Lord Byron, la primera persona que ejecutó un algoritmo para la “máquina analítica” y describió por primera vez un lenguaje de programación de carácter general interpretando las ideas de Babbage. Aunque esto lo veremos en otro artículo dedicado a la historia de los lenguajes de programación.

En tiempos de guerra, la tecnología marca la diferencia


Es una verdadera pena ser conscientes de que cuando más se esfuerza el ser humano es cuando lucha contra si mismo.
Ya entrada la segunda guerra mundial, debido a la necesidad de obtener rápidamente los cálculos de las trayectorias de los proyectiles de artillería, se crearon máquinas calculadoras automáticas de las que cabe destacar la IBM ASCC, también conocida como Harvard Mark 1. Un verdadero monstruo de 17 metros de largo por 2 y medio de alto. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.
"La Harvard Mark 1"
Ya en 1947 se construyo, en la universidad de Pennsylvania la ENIAC, que fue la primera computadora electrónica. Tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, patrocinado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neuman. Las ideas de von Neumann resultaron fundamentales para su posterior desarrollo.
" Hola soy Von Newman y me tapo la calva con el flequillo"
El equipo de la ENIAC con Von Neuman a la cabeza diseñaron la EDVAC. La idea fundamental de von Neumann fue permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.
En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más complejas.

John Von Newman redactó una serie de reglas hoy conocidas como "el modelo Von Newman" para la creación de computadoras, que sigue siendo válido hasta nuestros días. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados. Hay quién le considera el padre de la computación moderna junto con Babbage.
La UNIVAC fue la primera computadora producida comercialmente.


La UNIVAC no fue construida para un propósito militar, sino que fue diseñada para la oficina de Censo en 1951, por los ingenieros que crearon la ENIAC. La computadora no era de bolsillo, pesaba mas de siete toneladas y podía ejecutar unos mil cálculos por segundo, además era capaz de procesar los dígitos en serie.

Y llegó el transistor

No me refiero al que tiene papá para escuchar la radio, sino a ese pequeño dispositivo electrónico semiconductor que cumple las funciones de amplificador, oscilador, conmutador o rectificador.
"Esto es un transistor"
Allá por la década de 1950 las válvulas de vacío fueron suplantadas por los transistores, consiguiendo de este modo elementos lógicos mucho más pequeños, así como los espacios entre ellos, por lo que la fabricación de la máquinas resultaba más barata. Pensad que una válvula de vacío podía tener el tamaño de un cartucho de escopeta aproximadamente, mientras un transistor podía equipararse en volumen con una lenteja. Además el consumo de energía de un transistor era considerablemente menor, unos 10 voltios por los 300 de una válvula de vacío. Los transistores son normalmente de silicio, por lo que tienen una vida útil prácticamente ilimitada.
En definitiva el desarrollo de los transistores propició la aparición de máquinas cada día más perfeccionadas.

Circuitos integrados

A finales de la década de 1960 apareció el circuito integrado, que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. 

El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala y, más tarde, con el circuito de integración a mayor escala , con varios miles de transistores interconectados soldados sobre un único sustrato de silicios

El futuro está cerca

Gracias al uso de microcircuitos con inteligencia, en futuras generaciones las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para resolver problemas gracias al uso de microcircuitos con inteligencia. Esta será la generación de la inteligencia artificial.

Realidad o ficción?

En la universidad de Surey, Inglaterra, creen que en el futuro la clave será la LUZ. Según su equipo de investigadores, será posible crear un dispositivo óptico de computación que se aproveche de la velocidad de la luz y de su gran capacidad para transportar información... En la película K-Pax el protagonista viajaba a través de los rayos de luz.

Por otra parte, en el instituto de bioquímica Maxplanck, cerca de Munich, han conseguido hacer que el silicio interactúe con tejidos vivos. La tecnología neuroelectrónica abre una via de comunicaciones entre computadoras y células. El primer "neurochip" ha consistido en fusionar y hacer que trabajen juntos un microchip y las neuronas de un caracol... Podría ser esto una avance en la cura de enfermedades neuronales en humanos?

0 comentarios:

Publicar un comentario