Informatica y Sociedad



HISTORIA Y EVOLUCIÓN DE LA INFORMÁTICA



1º INGENIERÍA INFORMÁTICA
Ernesto Jiménez Ruiz Dirección general Carlos González Ballester
Sergio Andreu Montferrer Jorge Soria García
Profesor: Sergio Barrachina Mir
Curso: 1999-2000





Resumen

En este trabajo se va a hacer un repaso a todo lo que ha sido la historia de la informática, desde sus orígenes mas remotos (ayudas para simplificar tareas en el calculo) hasta la actualidad, donde los ordenadores desempeñan un papel muy importante tanto en el desarrollo de la ciencia y de la técnica, como en la sociedad.



 

1. Introducción

Aunque tal y como hoy conocemos la informática se puede considerar una ciencia relativamente moderna, esto no es así. Tenemos que tener muy claro que los computadores no han nacido en los últimos años, sino que sus orígenes se remontan a tiempos pretéritos.

El ser humano siempre ha necesitado encontrar métodos rápidos y efectivos para resolver sus cálculos, y con ayuda de su gran inventiva ha conseguido a través de los siglos desarrollar las computadoras. Hoy en día ya estamos acostumbrados a vivir con ellas, o casi, y no nos percatamos de que su aparición ha tenido una gran influencia en diversos aspectos de nuestra vida diaria, mejorándola y abriendo puertas que antes eran desconocidas para la humanidad.

El objetivo de este trabajo es mentalizar a los individuos de dos cosas:

  1. La informática tiene una historia y unos orígenes, como todo; los ordenadores no aparecieron en el siglo XX de la noche a la mañana, sino que tienen siglos y siglos de trabajo.

  2. Los computadores no son el virus del siglo XX como muchos dicen, ya que nos ayudan tanto en la ciencia (acelerando su desarrollo) como en la sociedad (educación, comunicación, etc.).

Como primera parte del trabajo estudiaremos las primeras ayudas, instrumentos y máquinas que utilizaron nuestros antepasados para resolver cálculos, y como éstos fueron evolucionando a medida que el tiempo y los medios avanzaban; hasta llegar al siglo XX donde aparecen los primeros ordenadores, que eran máquinas que se empezaban a asemejar a los actuales. Tras la aparición del primer ordenador electrónico, iremos generación a generación viendo como éste fue mejorando poco a poco, adentrándonos en los procesadores que fueron surgiendo.

Para terminar haremos un pequeño resumen de lo que es la informática hoy en día, destacando que no es una ciencia independiente e inútil, sino que el resto de ciencias la necesitan tanto como a sí mismas para avanzar y facilitar sus investigaciones. También, aunque no debamos, nos meteremos un poco en internet, ya que consideramos indispensable hablar de él si comentamos como afecta la informática en la educación.





2. Orígenes y desarrollo

[Laredo00]

En sus orígenes, bastantes años antes de Cristo, el cálculo tenía bastantes problemas para poder desarrollarse. Uno de ellos era que no existía un mecanismo fácil para escribir el enunciado de los problemas y para anotar los resultados intermedios, dificultando así el trabajo de las personas que buscaban la solución de un cálculo. Dado este problema y la necesidad de obtener resultados rápidos y exactos procedente de los campos del comercio, impuestos, calendarios, organización militar, etc., en la historia de la humanidad se han ido construyendo distintos instrumentos y maquinas que simplificaran notablemente los cálculos humanos.

Destaquemos que una vez solventado el problema del mecanismo de escritura, se siguió igualmente avanzando en la construcción de instrumentos cada vez más complejos, intentando siempre superar y mejorar lo que ya existía.


2.1. Visión general de las primeras ayudas de cálculo

2.1.1. Cálculo con los dedos

[Infso00]

Los dedos se ha usado de tres formas distintas como ayuda al cálculo, éstas son:

  1. Para contar con ellos.

  2. Para representar números mediante posiciones complejas, y así guardar resultados intermedios durante la ejecución de cálculos mentales.

  3. Para realizar operaciones de multiplicación.


2.1.2. El Ábaco

[Infso00]

Desde épocas tempranas se han manipulado piedras sobre el polvo o usado un palo o el propio dedo sobre tablas de polvo (como sustitución del papel y la tinta) para hacer operaciones. Por eso se cree que la palabra semítica abaq (polvo) es la raíz de nuestra palabra moderna ábaco; y que fue adoptada por los griegos que utilizaban la palabra abax para nombrar la superficie plana en la que dibujaban sus líneas de cálculo. Como gran parte de la aritmética se realizaba en el ábaco, llegó un momento en el que ambas palabras se utilizaban indistintamente, considerándose sinónimos.

Su origen no está muy claro, y probablemente comenzó simplemente como piedras que se movían en líneas dibujadas sobre polvo. Pero lo que sí es seguro es que por el 1000 a.C. en la civilización china el ábaco era una herramienta indispensable para efectuar todas las transacciones comerciales en las que era necesario realizar operaciones rápidas y eficaces.

El ábaco no era otra cosa que un rudimentario marco o tablilla de madera dotada de una serie de varillas verticales que dividían la tabla en varias columnas, en las cuales habían una serie de bolas o anillos a modo de cuentas. La columna situada más a la derecha representaba las unidades, la anterior a las decenas y así sucesivamente. En la parte inferior de cada columna existían cinco cuentas elementales y, situadas en la parte superior otras dos de distinto color que representaban cinco unidades. Así, representando un número en el ábaco mediante las cuentas situadas en las columnas correspondientes, las sumas se realizaban añadiendo las cuentas necesarias a cada columna dígito a dígito, de forma que si en este proceso se completaba alguna columna con diez cuentas, éstas eran eliminadas y se sumaba una cuenta en la columna inmediatamente a su izquierda.

El ábaco se ha usado en muchas culturas, incluso en la europea; pero al disponerse de papel y lápiz su uso era limitado. Como muestra de ello hay varias variantes de ábaco:

Como nota característica diremos que el 12-11-1946 compitieron el soldado Wood del ejército de EE.UU., que era el operador de máquinas eléctricas de calcular más experto; y Kiyoshi Matsuzaki, un japonés muy entrenado en el uso del Soroban. Y que en cuatro de las cinco pruebas ganó el ábaco con diferencia, perdiendo solo en la prueba de la multiplicación.

Con esto queda demostrado que el ábaco no era un juguete de niños como muchos afirman, sino que si se sabe utilizar es muy potente.


2.1.3. Las Tablas de Neper

[Marmaneu99]

Tras el ábaco hubo un vacío en el que no apareció nada que revolucionase el cálculo, hasta que en 1614 Jonh Napier (1550-1617) (véase Figura 2) anunciara el descubrimiento de los logaritmos. Éstos eran funciones matemáticas que permitían que los resultados de complicadas multiplicaciones y divisiones se redujeran a un proceso de simples sumas y restas, respectivamente.

Jonh Neper
Figura 2: Jonh Neper.

Inventó un dispositivo consistente en unos palillos con números impresos que merced a un ingenioso mecanismo le permitía realizar operaciones de multiplicar y dividir. A este dispositivo se le conoce como Tablas de Neper (véase Figura 3 ).

Tablas de Neper
Figura 3: Las Tablas de Neper.

Funcionamiento: Para entender cómo funcionaban las tablas, haremos la multiplicación de 592 por 321 (véase Figura 4). Cada celda se divide en dos partes, la de arriba indica las decenas, y la de abajo las unidades; estos dígitos se obtienen, en el caso de la primera celda, al multiplicar 5 por 3 (1 decena y 5 unidades = 15). En la siguiente celda multiplicariamos 9 por 3 y así con todas.

Ejemplo de 								funcionamiento
Figura 4: Funcionamiento de las Tablas.

Una vez hechas las operaciones anteriores, sólo hay que sumar la diagonales indicadas en la figura:

Aunque Neper no llegó a construir ninguna máquina de cálculo basada en sus tablas, puso la base para algunos autores que si desarrollaron máquinas basadas en ellas. Gaspar Schott, Atanasio Kircher, Wilhelm Schickard y Blaise Pascal fueron algunos de los que tuvieron muy en cuenta estas Tablas para realizar sus máquinas.

En fin, el uso de las Tablas de Neper se extendió muy rápido debido a su gran utilidad, e incluso se fueron desarrollando varias adaptaciones a lo largo del tiempo. A finales del siglo XIX se puso punto y final a la evolución de las Tablas de Neper, cuando Henri Genaille resolvió un problema que planteó Eduardo Lucas, desarrollando un nuevo juego de tablas de Neper en el proceso de solución. En ellas se elimina el problema de acarrear dígitos de una columna a la siguiente en la lectura de los productos parciales. También se creó un conjunto de reglas para la división.

2.1.4. Herramientas analógicas

[Infso00]

En la época de Neper (s. XVI-XVII) los problemas de cálculo más importantes eran los de astronomía, navegación y cálculo de horóscopos; con lo que aparecieron una serie de herramientas que facilitaban éstos :

2.2. El preludio de los computadores: las primeras máquinas de cálculo

[Salcedo98]

El afán por reducir al máximo el trabajo al realizar las funciones aritméticas, y quizá una pequeña mejora en la disponibilidad de instrumentos, provocan que a partir del siglo XVII empiecen a aparecer en plan masivo máquinas o proyectos de las mismas. En muchos de los casos los autores no llegaron a construir la maquina en su totalidad, o no llegó a ser operativa); pero esto no se debía a que los creadores no fueran lo suficientemente inteligentes, o a que no tuviesen las ideas muy claras, sino que la tecnología de la época era bastante limitada y se quedaba muy atrás en comparación con las exigencias del matemático, que veía como sus proyectos se paralizaban.

En este punto estudiaremos a los autores más importantes hasta llegar al siglo XX. Algunos crearon algún dispositivo de cálculo, y otros sólo hicieron planos de lo que iba a ser la máquina; pero tanto unos como otros fueron muy importantes por las teorías y proyectos que tenían en mente, y porque siempre abrieron alguna puerta a las generaciones posteriores.

2.2.1. Wilhelm Schickard (1592-1635)

[Infso00]

Tras personajes como Gaspar Schoot y Atanasio Kircher, Schickard fue el próximo en diseñar una máquina basada en las Tablas de Neper, la cual sumaba, multiplicaba y dividía semiautomáticamente. Erróneamente se piensa que Blaise Pascal fue el primero en inventar una máquina de sumar con mecanismo de acarreo; pero en realidad es a Schickard al que le corresponde el honor.

Del trabajo de Schickard solo disponemos de los planos de la máquina, los cuales fueron suficientes para que Bruno Von Fretag reconstruyera la máquina siguiendo los dibujos detallados que había de ella (véase Figura 5).

Calculadora de 											Schickard
Figura 5: Reconstrucción de la calculadora de Schickard.

La máquina se dividía en dos partes:

  1. Parte inferior: servía para anotar resultados intermedios, sin necesidad de utilizar papel y lápiz, rodando una serie de ruedas.

  2. Parte superior: era con la que se multiplicaba. Consistía en una serie de Tablas de Neper las cuales estaban escritas sobre unos cilindros con lo que se podía seleccionar una tabla en particular solo con girar un dial.

La máquina era bastante simple y fiable, pero tenía algunos fallos. El problema más significativo que tuvo, fue el del acarreo múltiple, ya que era muy costosa la propagación de izquierda a derecha de todo el acumulador (ej: 999999 + 1) por eso sólo diseño máquinas de seis dígitos.

En fin, la calculadora de Schickard inauguró una nueva etapa del cálculo a la vez que acababa con la superioridad del ábaco.

2.2.2. Blaise Pascal (1623-1662)

Pascal no fue el primero; pero eso no le quita mérito a su trabajo, entre otras cosas porque no conoció la calculadora de Schickard, eliminando así cualquier posibilidad de copia.

Blaise Pascal
Figura 6: Blaise Pascal

Creo su calculadora en 1642, veinticinco años después que Neper publicase una memoria describiendo su dispositivo ('Tablas de Neper'). A los dieciocho años Pascal deseaba dar con la forma de reducir el trabajo de cálculo de su padre, y en general evitar a los hombres realizar cálculos repetitivos. Por ello Blaise se preparó como mecánico y con sólo diecinueve años creo su máquina, la cual tenía el tamaño de un cartón de tabaco. Su principio de funcionamiento era semejante al ábaco, es decir, utilizaba el sistema de numeración decimal; pero las primitivas varillas habían sido sustituidas por un número determinado de ruedas dentadas (véase Figura 7) que al rodar diez dientes de la primera rueda avanzaba un diente de la segunda, lo mismo con la 2ª y 3ª, y así sucesivamente. Las ruedas estaban marcadas con números de 0 al 9, habiendo dos para los decimales y seis para los enteros, con lo que se podía manejar números entre 000000 01 y 999999 99.

Visión del funcionamiento
Figura 7: Visión de las ruedas dentadas.

Más adelante diseño un nuevo mecanismo (véase Figura 8) completamente nuevo basado en la caída de contrapesos en vez de la propagación en una cadena larga de engranajes (como inicialmente era el diseño, y como la máquina de Schickard). Este nuevo mecanismo de acarreo puso punto y final al problema del acarreo múltiple de Schickard; pero trajo consigo otro. Éste era que las ruedas sólo podían girar en una dirección con lo que sólo se podía sumar y no restar. Este problema se resolvió mediante la suma del complemento a nueve (Ca9) del resultado, lo que hizo bastante engorroso su uso.

Sumadora de Pascal
Figura 8: Calculadora de Pascal.

La utilización de la máquina llegó a ser farragosa y sujeta a muchos inconvenientes, haciendo que su uso quedara limitado a ciertas personas. Incluso a veces era más fácil y rápido hacer el cálculo a mano que con la máquina. Pero la contribución de Pascal no fue importante por la utilidad de la máquina, sino por el concepto de máquina calculadora que, con perspectivas de futuro, supo entrever en su complicado artefacto. Por ello, en su honor se llama uno de los lenguajes de programación que más impacto ha causado en los últimos años.

2.2.3. Gottfried Wilhelm Leibnitz (1646-1716)

La célebre calculadora inteligente del alemán Leibnitz fue uno de los primeros autómatas de las historia; pero sobre todo la informática le debe la genial idea de utilizar el sistema binario -0 y 1- como método de cálculo.

Su gran curiosidad científica le llevó a estudiar los campos de la lógica, matemática, física, biología, ingeniería, historia, política, filosofía, jurisprudencia, metafísica y teología. Esta relación de ciencias podrían hacer creer que su labor fue muy dispersa y no hizo nada en concreto; pero no es así.

Se esforzó por lograr una síntesis intelectual a la vez que propuso el establecimiento de un lenguaje universal, científico y formal. Relacionaba este proyecto lingüístico con su plan de reforma científica basada en un cálculo matemático de índole lógico-matemática.

En fin, la brillante constelación intelectual de teorías y trabajos de Leibnitz afecta de forma esencial a la computación y entrar en su historia por tres grandes logros:

Tanto Pascal como Leibnitz se vieron afectados por la época ya que sus máquinas eran demasiado complejas para realizarlas a mano, y por ello sus máquinas no llegaron a ser tan perfectas como hubiesen podido ser.


2.2.4. Samuel Morland (1625-1695)

Fabricó instrumentos de diversos tipos, entre ellos:

Ambas máquinas formaban un buen conjunto, ya que además de complementarse se necesitaban, ya que era preciso sumar al multiplicar con las Tablas de Neper.


2.2.5. Joseph Jacquard (1752 - 1834)

[Giles_] [Alvarez98]

Utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas controlados por una máquina de tejer. Jacquard fue el primero en emplear tarjetas perforadas para almacenar información y además programar la máquina.

En 1801 creó el Telar de Tejido (véase figura 10), para elaborar la trama del diseño de una tela. La información necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño leyendo la información contenida en las tarjetas.De esta forma,se podían obtener varios diseños,cambiando solamente las tarjetas.Se dice que Jacquard programó un diseño en 24 000 tarjetas,para tejer su propio autorretrato.

Figura 10: Máquina de Jacquard.
Telar de Tejido Telar de Tejido


2.2.6. Charles Babbage (1792 - 1871)

[Garzon99] [Martinez99]

Matemático inglés, posiblemente el más importante de los autores vistos hasta el momento (véase Figura 11).

Charles Babbage
Figura 11: Chrales Babbage.

En 1812 vio que las tablas trigonométricas estaban plagadas de errores al haber sido calculadas a mano, y que estos fallos podían ocasionar desde grandes desviaciones en las trayectorias navales hasta la pérdida de los documentos de los pagos anuales del Gobierno. Él estaba seguro que una máquina realizaría esas tablas mucho mejor y sin errores. Así pues en la década de 1820 diseño la MÁQUINA DIFERENCIAL.

Era una máquina automática para el cálculo, lo que fue una revolución en la historia de la computación. Podía realizar cálculos matemáticos sin necesidad de realizar operaciones de multiplicar y dividir. Calculaba tablas de funciones, es decir, calculaba el valor numérico de una función polinómica sobre una progresión aritmética, dado que las funciones se pueden aproximar a polinomios. Además de realizar estos cálculos, hubiese impreso las tablas en papel o metal, a pesar de la dificultad de la época para llevar a cabo una impresión.

Las tablas matemáticas que generaría la máquina eran calculadas mediante el método de las diferencias, el cual es casi tan fácil como calcular una suma, y tiene la ventaja de que el resultado depende de un valor previo.

Las diferencias podían ser simples (1er. orden) o derivadas (2º orden o más), dependiendo de la función.

Ejemplo: f(x) = 5x + 9.

Tabla 1: Diferencias constantes.
X Y Diferencia
0 9  
1 1414 - 9= 5
2 19 19 - 14=5
3 24 24 - 19=5
    sig - 24=5

Aunque la funciones polinómicas tienen diferencias constantes, otras como las trigonométricas son más complejas. Babbage puso la solución de subdividir las funciones complejas en partes que puedan ser resueltas con polinomios. Destaquemos que él siempre afirmó que las diferencias constantes aunque derivadas eran mejores para automatizar el cálculo.

Hacia 1822 había creado un modelo de máquina que podía manipular diferencias de segundo orden. Esta máquina se utilizó para el cálculo de tablas de navegación y artillería, lo que le permitió conseguir una subvención recomendada por la Sociedad Real, para respaldarle en la creación de una máquina de escala completa. Aquí es donde empezaron los problemas, ya que la complejidad de la máquina puso en evidencia la capacidad ingeniera de la época.

Babbage intentó repasar el proceso de construcción y realizó nuevos diseños; pero la construcción avanzaba muy lentamente, terminándose el plazo de tiempo sin la máquina acabada.
Fue acusado de desperdiciar el dinero del Gobierno en sus intereses; a pesar de todo el Gobierno le proporcionó más dinero y prosiguió con su trabajo, hasta que tuvo una disputa con el principal de sus mecánicos (1834), que hizo que el proyecto se aplazara.
Sin embargo había diseñado un modelo que calculaba diferencias de hasta tercer orden y había desarrollado un ingenioso método para trabajar redondeando errores. Si la última máquina diferencial hubiese sido construida habría calculado diferencias de hasta sexto orden, y sería capaz de trabajar con números de hasta dieciocho dígitos.

En el Museo de la Ciencia está el modelo más completo (véase Figura 12), el cual si hubiese sido acabado sería enorme, alrededor de 25000 piezas y una masa de varias toneladas.

Máquina diferencial
Figura 12: Máquina de diferencias.

En 1991 el Museo de la Ciencia creó con éxito un diseño de la máquina siguiendo los pasos de Babbage, que ofrecía una visión de lo que hubiese sido la original.

Se puede considerar la máquina de diferencias como la precursora de las calculadoras modernas.

MÁQUINA ANALÍTICA: En 1834 cuando estaba trabajando en la máquina diferencial Babbage concibió la idea de una máquina analítica (véase Figura 13). Era una máquina de propósitos generales, podía sumar, restar, multiplicar y dividir en secuencia automática a una velocidad de sesenta sumas por minuto.

Esquema Máquina Analítica
Figura 13: Esquema de la Máquina Analítica.

El problema de esta máquina era que el diseño requería miles de engranajes y mecanismos que cubrirían el área de un campo de fútbol, con lo que su tamaño sería como el de una pequeña locomotora. Para hacernos una idea, sería como los ordenadores de los años sesenta, que eran enormes y ocupaban una habitación entera.

El diseño básico de la máquina era como el de los computadores modernos. Tenía cuatro componentes básicos:

  1. Un almacenamiento (memoria) con capacidad para guardar 50000 dígitos decimales, que se usaba para guardar estados intermedios, variables y resultados.

  2. Una unidad de cómputo, que podía recibir órdenes para hacer las cuatro operaciones básicas y podía almacenar en la memoria.

  3. Una unidad de entrada, mediante tarjetas perforadas que almacenaban el conjunto de órdenes que se deseaba ejecutar.

  4. Una unidad de salida, mediante tarjetas perforadas o salida impresa.

Funcionamiento: los datos e instrucciones eran introducidos mediante tarjetas perforadas, luego un molino -unidad de proceso- operaría con los datos y resultados que serían enviados al almacén para ser impresos o mecanografiados.

Características:

Al igual que la máquina diferencial, no pudo ser construida, ya que la tecnología de la época no era capaz de trasladar a la práctica sus acertados conceptos.

La máquina analítica hubiese sido una auténtica computadora programable. Babbage, sin duda, hubiese acelerado el desarrollo de los computadores si él y su mente inventiva hubieran nacido cien años después. Lo curioso es que fue ignorado y sus grandes proyectos olvidados hasta hace poco; posiblemente porque no llegó a construir ninguna máquina y porque muy poca gente podía entenderle, y es ahora cuando nos damos cuenta de que ya adelantó parte de lo que iba a ser el futuro de los computadores.


2.2.7. Ada Augusta Byron (1815 - 1851)

Se considera la primera programadora de la historia, es decir, la primera persona capaz de entender el lenguaje de computadora y el lenguaje de programación, ya que publicó una serie de programas para resolver ecuaciones trascendentes e integrales definidas con la máquina de Babbage. Destaquemos que en dichos programas se hacía uso de bifurcaciones hacia delante y hacia atrás, y de bucles.

Ada Augusta Byron
Figura 14: Ada Augusta Byron.

Su relación con Charles Babbage comenzó cuando ella visitaba su taller a temprana edad. Babbage estaba muy impresionado con la manera en que ella entendía su computadora. Luego él pasó a ser su tutor y más tarde trabajaron juntos.

La primera publicación de Ada fue una traducción y análisis de un ensayo, escrito por un matemático italiano, sobre la máquina de Babbage.

En sus notas personales sobre sus habilidades con las computadoras decía que la máquina sólo podía dar información disponible, es decir, vio claramente que no podía originar conocimiento. También detectó que el motor podía generar música; en fin, que entendía a la perfección cada una de las operaciones de la máquina.

El que Ada entendiese a Babbage no es una simple anécdota, ya que además de confirmarla como la primera programadora, nos demuestra que al menos alguien entendió a Babbage, y que si sus máquinas no llegaron a ser construidas no es porque el quisiera crear algo imposible, sino porque en su época no hubo un acuerdo entre la técnica y sus proyectos.


2.2.8. George Boole (1815 - 1864)

Sería un error olvidarnos de George Boole (ver Figura 15), si se habla de la historia de la informática ya que su trabajo fue muy importante e influyó de pleno en los computadores.

George Boole
Figura 15: George Boole.

Boole recluyó la lógica a una álgebra simple. También trabajó ecuaciones diferenciales, el cálculo de diferencias finitas y métodos generales en probabilidad.

Publicó una aplicación de métodos algebraicos para la solución de ecuaciones diferenciales, y por este trabajo obtuvo la medalla de la Real Sociedad; a partir de aquí empezó su fama. En 1854 publicó también una investigación de leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de lógica y probabilidad.

Boole aproximó la lógica en una nueva dirección reduciéndola a una álgebra simple, incorporando así la lógica a las matemáticas. Agudizó la analogía entre los símbolos algebraicos y aquellos que representan formas lógicas. Comenzaba el Álgebra Booleana también llamada Álgebra de Boole, la cual fue un paso fundamental en la revolución de los computadores de hoy en día. Entre sus muchas aplicaciones está la construcción de computadores y circuitos eléctricos.


2.3. Hacia la primera generación de ordenadores

En este punto veremos a los últimos autores antes de la 1ª generación de ordenadores; para situarnos, la época en la que estamos es finales del siglo XIX y principios del XX hasta 1945 que es cuando aparecen los ordenadores electrónicos. Empezaremos hablando de Herman Hollerith y terminaremos introduciendo a John Mauchly que posteriormente crearía una de la primeras máquinas electrónicas (ENIAC).

2.3.1. Herman Hollerith (1860 - 1929)

[Garzon99]

Fue la primera persona que construyó una máquina basada en el tratamiento automático de la información.

Herman Holerith
Figura 16: Herman Hollerith.

En la década de 1880 se realizó un concurso, promovido por la oficina del Censo de EE.UU., en el que se proponía la invención de una máquina que facilitara la realización del censo. En dicho concurso quedaron tres finalistas: William C. Hunt que ideó un sistema de tarjetas coloreadas, Charles P. Pidgin con un sistema de fichas codificadas también coloreadas, y Herman Hollerith con un sistema de tarjetas perforadas que resultó ser dos veces más rápido que el de sus competidores. Dichas fichas eran leídas por una máquina tabuladora, llamada máquina de censos (véase Figura 17). Éstas corrían por unos cepillos y cuando la máquina detectaba mediante un baño de mercurio (Hg) un orificio (eran características de la población), se cerraba un circuito eléctrico haciendo que aumentara en una unidad el contador de dicha característica de población. Finalmente los datos se registraban en una tabuladora.

Máquina de Censos
Figura 17: Máquina de Censos de Herman.

Su invento era muy útil a la hora de realizar cálculos estadísticos, y se convertiría más adelante en un descubrimiento de gran importancia para el mundo de informática. Gracias a él, el censo de 1890 se terminó en menos de tres años, siendo todo un éxito ya que el de 1880 se acabó en 1888, y además se produjo un ahorro de cinco millones de dólares.

Destaquemos que Herman no tomó la idea de la tarjetas perforadas del invento de Jacquard, sino de la fotografía de perforación. Vio que algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían agujeros en los boletos que describían el color de pelo, de ojos, forma de la nariz, etc. de los pasajeros; y esto le dio la idea para hacer fotografía perforada de cada persona que iba a tabular.

En 1896 abandonó la oficina del Censo para crear su propia empresa, la Tabulating Machine Company, con la que vendió sus productos por todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. En 1900 había desarrollado un máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1911 la Tabulating Machine Company al unirse con otras dos formó la Computing-Tabulating-Recording-Company. En 1919 se anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en la que la compañías realizaban sus operaciones. En 1924, para reflejar mejor el alcance de sus intereses comerciales, la compañía pasó a llamarse International Bussines Machines Corporation, la mundialmente conocida IBM.


2.3.2. El analizador diferencial

También en la década de los 20, retoma vigor el desarrollo de máquinas para realizar cálculos. Hattree construyó un analizador diferencial que usaba como principio básico un disco rotando en contacto con otro.

Ya en 1930, en el MIT (EE.UU.), Vannevar Bush construyó otro analizador diferencial. Éste era un dispositivo electromecánico que podía usarse para integrar ecuaciones diferenciales. La precisión de esta máquina no era alta (5 en 10000) y tomaba entre diez y veinte minutos integrar una ecuación promedio. A pesar de esto, integrar una ecuación promedio puede constar aproximadamente de 750 multiplicaciones, lo que hubiera supuesto a un ser humano unas siete horas de trabajo. En fin, la máquina no era un maravilla; pero era bastante más rápida que un humano.


2.3.3. Konrad Zuse (1910 - 1995)

[Garzon99]

Posee un lugar especial en la historia de la informática, porque fue el primero en construir ordenadores electromecánicos, y el primero en diseñar y construir un ordenador calculador controlado automáticamente; destaquemos que Herman Hollerith ya construyó una máquina basada en el tratamiento automático de la información. Su ordenador no era electrónico ni tenía ningún programa residente en memoria; pero era capaz de ser controlado por un lector externo que tomaba instrucciones desde una cinta perforada.

Konrad Zuse
Figura 18: Konrad Zuse.

Zuse construyó un verdadero calculador automático que sólo tenía tres unidades básicas: una de control, una de memoria y otra aritmética para calcular.
No estaba familiarizado con los detalles del diseño de calculadoras mecánicas; lo que debió ser una ventaja ya que no intentó producir una calculadora basada en las cosas que ya se sabían sobre esto, sino que tuvo que ingeniar bases sobre las que crear sus propios principios para construir sus ordenadores.


El Z-1

Decidió que cualquier unidad de memoria debía estar basada en un sistema binario, mejor que los sistemas usados en las anteriores máquinas que funcionaban con la ruedas o engranajes de diez posiciones. Su sistema era muy simple, el cual se basaba en una pequeña clavija apoyada en una abertura que a su vez estaba apoyada sobre una cinta de metal; dicha clavija debía ser puesta a un lado de la abertura o al otro según fuera 0 o 1 lo que se quisiera representar. El movimiento de la clavija provocaba que el mecanismo de lectura se mueviera de un lado a otro dependiendo en que lado de la abertura se encontrase.

Con la ayuda de unos amigos construyó un pequeño estudio en la sala de estar de la casa de sus padres y empezó a construir su modelo de memoria mecánica. Por 1936 había progresado de tal manera que podía aplicar una patente a su idea.

Más tarde abandonó su trabajo en la Henschel Aircraft Company, y para la consternación de sus padres decidió continuar su trabajo en la sala de estar. En 1937 había creado un modelo de memoria mecánica capaz de almacenar dieciséis números en código binario, cada uno de ellos de 24 bits. Un año después ya había acabado la construcción de su primera máquina, llamada originariamente V-1 (Versuchsmodell-1); pero después de la guerra lo cambió por Z-1, para evitar confusiones con los misiles llamados igual.

El Z-1 fue una máquina completamente mecánica. Sus componentes básicos eran una especie de ingeniosas puertas construidas con una serie de placas deslizantes conectadas entre ellas por unos rodillos. La unidad aritmética construida con estos mecanismos, fue diseñada para trabajar con números en coma flotante, y con una unidad adicional controlada que convertía los números binarios en coma flotante a decimal para facilitar la entrada y salida de datos.

El control del Z-1 se llevaba a cabo por medio de una cinta, con las instrucciones perforadas en ella. Mientras la mayoría de la gente usaba dichas cintas que conseguían en los lugares que proporcionaban material a las centrales de telex, Zuse usaba una cinta de vídeo de 35mm, que él mismo perforaba con un punzón manual. La idea de usar esto se la dio su colega Helmut Schreyer que había trabajado como proyeccionista de cine. La ventaja de ésta cinta residía en su mayor resistencia y en que podía utilizar un proyector de cine para hacer que la película se moviera a pequeños pasos por dentro de la máquina automáticamente.

La entrada de datos se basaba en un simple teclado de cuatro posiciones decimales mientras que el de salida era un sistema con cuatro impulsos eléctricos que eran mostrados mediante una lámpara.

La máquina funcionó, la memoria trabajaba bien y las bases de las unidades de memoria fueron usadas en otras máquinas incluso; pero el diseño de la unidad aritmética presentó graves problemas, muchos de los cuales fueron causados por la complejidad de las rutinas de las señales enviadas de un lado a otro. El movimiento de las señales en una máquina eléctrica se basa en un simple problema de llevar un cable de un punto a otro, pero cuando las señales se representan por planchas deslizantes es muy difícil hacer que estas señales circulen por las esquinas.

El Z-2

Después de que el Z-1 fuera acabado, Zuse empezó a diseñar una unidad aritmética basada en relés para evitar los problemas del encauzamiento de la señal; su amigo Schreyer paralelamente a su trabajo empezó a construir una parte de su máquina mediante tubos de vacío. Este pequeño modelo se mostró en The Technical University en Berlín en 1938, pero debido que en aquellos tiempos de preguerra en Alemania era imposible obtener los 1000 tubos de vacío necesarios para fabricar la maquina Zuse tuvo que abandonar esta línea de trabajo y volver a dedicarse a su máquina de relés Z-2.

El Z-2 fue diseñado para funcionar con la memoria mecánica del Z1 mientras que el resto de la máquina iba a funcionar mediante relés. Los relés normales eran demasiado caros para la cantidad que él necesitaba, que era de unos cuantos cientos de ellos; por eso se hizo con unos cuantos de segunda mano que él y sus amigos reconstruyeron para usar en el Z-2.

Schreyer diseñó un sistema de memoria que funcionaba con pequeñas lámparas de neón controladas por una serie de tubos de vacío. El prototipo podía manejar números de más de 10 bits de longitud y su construcción requirió 100 tubos de vacío; pero desafortunadamente el modelo fue destruido en un ataque aéreo.

Más adelante Zuse abandonó a Schreyer y se dedicó él solo, durante sus fines de semana libres, a intentar acabar el Z-2.

Cuando acabó la unidad aritmética basada en relés y tuvo la unidad de control funcionando, le añadió la memoria mecánica y preparó una demostración para el Deutsche Versuchsanstalt fur Luftahrt (Instituto de Investigación Aeronáutica Alemán). La maquina funcionó a las mil maravillas, pero la construcción de la máquina no resultaba rentable para su uso práctico; pero la utilización de los relés convenció a los del DVL y aceptaron financiar a Zuse para la construcción de una máquina más ambiciosa, que sería llamada Z-3 .

El Z-3

El Z-3 fue una maquina muy al estilo del Z1 y Z2, seguía funcionando con la cinta de vídeo, y seguía teniendo los mismos dispositivos de entrada/salida. Toda la máquina se basaba en la tecnología de relés, alrededor de unos 2.600 de éstos eran requeridos: 1400 para la memoria, 600 para la unidad aritmética y el resto para los circuitos de control; que se colocaron en 3 estantes, 2 para la memoria y otro para la unidad aritmética y la de control. Y cada uno tendría alrededor de 6 pies de altura por 3 de ancho.

Uno de los principales inconvenientes del uso de los relés es que la corriente pasa a través de ellos y esto provoca chispas que se producen cada vez que se produce el contacto entre las dos partes de los relés. Estas chispas son las que provocan el desgaste entre las partes que producen el contacto y es la principal causa del fallo de los relés. Zuse solucionó éste problema poniendo un tambor rotatorio. Este tambor contenía varias capas de metal en su superficie y cepillos de carbón que realizaban el contacto con el tambor cada vez que éste giraba. Todas las señales que pasaban a través de los relés, primero debían ser sacadas a través del tambor de tal manera que un pequeño retraso pudiera asegurar que el relé había cerrado sus contactos antes de que cualquier corriente hubiera pasado por él. Esto hacía que no se pudieran producir descargas ni chispas en éstos.

La memoria de 64 palabras fue, como en sus predecesores, binaria en coma flotante; pero esta vez tenía una longitud de 22 bits: 14 para la mantisa , 7 para el exponente y uno para el signo. Todos los números en coma flotante solían ser almacenados de una manera normalizada, en la cual la mantisa era trasladada a la izquierda hasta que el número de más a la izquierda fuera 1, el exponente se ajustaba de acuerdo a esto. Zuse se dio cuenta de que esto no era realmente necesario si tenías presente que en todos los números, la mantisa se desplazaba siempre hacia la izquierda y la unidad aritmética le añadía el uno perdido, en todos los casos excepto en el 0. Esta técnica se usa aún hoy en día y data de 1941.

Al igual que sus anteriores máquinas, la unidad aritmética consistía en dos piezas separadas, una para el exponente y otra para la mantisa, pudiendo operar en paralelo. Esta unidad no sólo tenía la circuitería para realizar las 4 operaciones esenciales, sino que incluía también ayudas para calcular raíces cuadradas y una serie de instrucciones en la misma máquina para realizar multiplicaciones por -1;0.1;0.5;2 o 10.

El Z-3 superaba en velocidad al Harvard Mark I (del cual hablaremos en la primera generación) aunque este último fue terminado alrededor de dos años y medio después. El Z-3 podía hacer 3 o 4 sumas y multiplicar 2 números al mismo tiempo en 4 o 5 segundos.

Lo que le da más mérito es el hecho de que Zuse lo hiciera todo desde sus propios principios e ideas, porque la guerra que se llevaba a cabo en esos momentos, impidió que pudiera conocer cualquier tipo de estudio anterior al suyo o que conociera incluso las ideas de Babbage. Y de esta forma consiguió construir la primera máquina calculadora con total control de sus operaciones, el Z-3.

El Z-4

El DVL siempre había considerado al Z-3 como un mero prototipo, entonces, cuando éste fue completado Zuse comenzó a trabajar con el Z-4 . Básicamente era la misma máquina que el Z-3 pero con una longitud de palabra de 32 bits.

Estaba casi terminado cuando volvieron a empezar los ataques aéreos, entonces fue trasladado a Göttingen donde se instaló en un laboratorio de la Aerodynamische Versuchsanstalt. Esto fue durante poco tiempo porque hubo que volver a trasladarlo esta vez a Babaria, donde Zuse escondió el Z-4 en una pequeña casa de Hinterstein, justo antes de que fuera capturado por las tropas norteafricanas de la armada francesa.

El equipo de 12 personas que trabajaba con Zuse fue disuelto. Zuse y su colaborador Wernher von Braun fueron capturados en el escondite por las tropas americanas y fueron llevados para ser interrogados por un ejecutivo de la British Tabulating Machine Co. Ninguno de los dos hablaban bien otra lengua que no fuera la suya. Entonces Zuse convenció al hombre de que no estaba haciendo nada importante, y el hombre no les consideró una amenaza.

Se sacó la maquina de su escondite y fue trasladada a Suiza donde se montó en el Federal Polytechnical Institute en 1950 en Zurich, añadiéndole más posibilidades de control, entre ellas una instrucción de salto condicional. Cuando fue expuesta en el ETH la máquina todavía retenía su memoria mecánica, y podía almacenar 1000 palabras en un mecanismo de menos de un metro cúbico. En 1953 éste era el único ordenador que seguía funcionando en Europa y uno de los pocos de todo el mundo. Fue usado por el Institute of Applied Mathematics y en el ETH hasta el 55, cuando fue movido hasta el French Aerodynamic Research Institution, donde continuó hasta 1960.

Para terminar, destaquemos que el controlador de la cinta siempre leía dos pasos por delante de la instrucción que se estaba ejecutando en dicho momento, lo que permitió que a la máquina se le implementaran técnicas para aumentar la velocidad como éstas:


2.3.4. Jonh Vincent Atanasoff (1903 - 1995)

Era un físico estadounidense, que daba clases en la universidad del estado de Iowa, donde empezó haciendo un sencillo sistema de cálculo por medio de tubos de vacío.

Atanasoff
Figura 19: John Vincent Atanasoff.

Aficionado a la electrónica y conocedor de la máquina de Pascal y de las teorías de Babbage, empezó a considerar la posibilidad de construir una calculadora digital. Decidió que la máquina operaría en sistema binario, haciendo los cálculos de modo distinto a como los realizaban las calculadoras mecánicas; e incluso concibió un dispositivo de memoria mediante almacenamiento de carga eléctrica.

Solicitó ayuda económica al Consejo de Investigación de Iowa, y tras ser concedida contrató la colaboración de Clifford Berry, para crear el llamado Atanasoff Berry Computer (ABC) (véase Figura 20).

ABC
Figura 20: La Atanasoff Berry Computer.

Se podría decir que es el primer ordenador electrónico digital. Podía realizar ecuaciones lineales y funcionaba mediante 45 válvulas de vacío; pero nunca fue totalmente operativo debido a que Atanasoff fue llamado por el ejército para ingresar en la Naval Ordenance Laboratory en Washington, ya que estaban el la 2ª Guerra Mundial.

Atanasoff conoció a John Mauchly (del cual hablaremos más detalladamente en la primera generación) en la AAAS (American Association for the Advancement of Science), y tuvieron un intercambio de ideas que mucho después desembocaría en una disputa sobre la paternidad del ordenador digital. Ambos se habían encontrado con los mismos problemas en cuanto a velocidad de cálculo y estaban seguros que había una forma de acelerar el cálculo por medios electrónicos.






3. Los ordenadores electrónicos digitales

[Menendez98][Giles_][Laredo00][Salcedo98]

En este punto vamos a ver, generación tras genración, cómo fueron evolucionando los ordenadores electrónicos, hasta llegar a los PC actuales. Quizá los cambios más bruscos que se hicieron fue en el paso de la primera a la segunda, y en el de la segunda a la tercera con la aparición de los circuitos integrados; a partir de aquí ya no hay un cambio brusco en la tecnología, sino que se van mejorando y perfeccionando lo componentes del ordenador. Con esto no quito importancia a la cuarta y a la quinta generación, ya que fueron tan importantes como el resto de la historia de la infórmática, llegándose a un punto impensable un siglo atrás.

Tabla 2: Características de cada generación.
GENERACIONES Características
1ra Generación Tubos al Vacio 1,000 Calculaciones por segundo
2nd Generación Transistores 10,000 Calculaciones por segundo
3ra Generación Circuitos Integrados 1,000,000 Calculaciones por segundo
4ta Generación Microprocesadores (chips) 10,000,000 Calculaciones por segundo
5ta Generación Pentium Microprocesador 112,000,000 Calculaciones por segundo

Fuente: Historia de las Computadoras http://coqui.metro.inter.edu/cedu6320/yvazquez/histweb2.htm


3.1. Primera Generación: Válvulas de vacío (1945-1955)

[Desc_a]

La sustitución de los relés por Tubos de vacío (véase Figura 21) dio lugar a la primera generación de ordenadores electrónicos.

Tubos de vacío
Figura 21: Tubos de vacío.

El principal estímulo para desarrollar computadoras electrónicas estuvo en la segunda guerra mundial. Los submarinos alemanes, que destruían a la flota inglesa, se comunicaban por radio con sus almirantes en Berlín. Los británicos podían captar las señales de radio, pero los mensajes estaban encriptados usando un dispositivo llamado ENIGMA. La inteligencia británica había podido obtener una máquina ENIGMA robada a los alemanes, pero para quebrar los códigos era necesaria una gran cantidad de cálculo, que debía hacerse a alta velocidad.

Para descodificar estos mensajes, el gobierno británico construyó un laboratorio para construir una computadora, llamada COLOSSUS. Alan Turing, T. Flowers y M. Newman construyeron esta computadora (1943), que fue la primera computadora electrónica de la historia. .Realizaba una amplia gama de cálculos y procesos de datos y supuso el comienzo del cálculo electrónico Estaba construida con válvulas de vacío y no tenía dispositivos electromecánicos. A pesar de ello, al ser un secreto militar, su construcción no tuvo ninguna influencia posterior.

En EE.UU., simultáneamente, había interés de la armada para obtener tablas que pudieran usarse para mejorar la precisión en los disparos de artillería pesada (en particular para armas antiaéreas), ya que hacerlos manualmente era tedioso y frecuentemente con errores.

En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P. Eckert obtienen un subsidio de la armada para construir una computadora electrónica, que llamaron Electronic Numerical Integrator and Computer (ENIAC), primera computadora electrónica.

John Mauchly propuso construir una computadora electrónica digital para reemplazar al analizador diferencial, dando dos ventajas principales: la velocidad de la electrónica, y la precisión del principio digital. Se construyó en la Universidad de Pensilvania con el propósito de calcular tablas de artillería. La computadora consistía de 18000 válvulas de vacío y 1500 relés. Consumía 140 KW/h y pesaba 30 toneladas. Tenía que ser programada manualmente mediante clavijas.

Su hardware electrónico era 10 veces más rápidos que los del analizador diferencial y 100 veces más rápido que un calculista humano: podía hacer 5000 sumas por segundo. La computadora era programada por completo usando una técnica similar a los tableros de enchufes de las antiguas máquinas de calcular (encendiendo y apagando llaves y enchufando y desenchufando cables). Esta computadora no era binaria, sino decimal: los números se representaban en forma decimal, y la aritmética se hacía en el sistema decimal. Tenía 20 registros que podían usarse como un acumulador, cada uno de los cuales almacenaba números decimales de 10 dígitos.

Después de que la ENIAC estuviese operativa, se vio que tomaba tiempo considerable en preparar un programa e incorporarlo en el cableado; con lo que máquina se modificó, de tal forma que una secuencia de instrucciones pudiera leerse como una secuencia de números de dos dígitos que se ponían en una tabla de funciones. Para mantener la lógica simple, un solo registro quedó de acumulador, y los demás fueron usados como memoria.

El profesor Howard H. Aiken, de la Universidad de Harvard, trabajó en IBM para construir la Mark I (véase Fifuran 22- [Alvarez98]), también llamada calculadora automática de secuencia controlada, que entró en funcionamiento en 1944. Los cálculos se controlaban por cinta de papel perforada, con una serie de interruptores accionados manualmente y por paneles de control con conexiones especiales.

Mark I
Figura 22: La Mark I.

En 1944 también, prácticamente todas las máquinas de Zuse fueron destruidas por el bombardeo de los aliados a Berlín. La computadora Z-4, que entró en operación en 1945, sobrevivió al bombardeo y ayudó al desarrollo de posguerra de computadoras científicas en Alemania.

En este mismo año, John Von Neumann (véase Figura 23) introduce el concepto de programa almacenado. Una de las cosas que le molestaba de las computadoras era que su programación con llaves y cables era lenta, tediosa e inflexible. Propuso que los programas se almacenaran de forma digital en la memoria de la computadora, junto con los datos. Por otro lado, se dio cuenta que la aritmética decimal usada por la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una prendida y 9 apagadas -) podía reemplazarse usando aritmética binaria. Este diseño, conocido como Arquitectura de Von Neumann, ha sido la base para casi todas las computadoras digitales.

 John Von Neumann
Figura 23: John Von Neumann.

En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC, llamada EDVAC (Electronic Discrete Variable Automatic Computer). También en este año, Aiken comienza a construir la Mark II. En el mismo año, trabajando con un prototipo de la Mark II, Grace Murray Hopper encuentra el primer "bug": una polilla que provocó un fallo en un relé.

En 1946, la ENIAC (véase Figura 24) estaba operativa, funcionando en la Universidad de Pennsylvania. A pesar de que no pudo ser usada para su propósito original de cálculos de balística, la finalización de la ENIAC provocó una explosión de interés del desarrollo de computadoras electrónicas.

ENIAC
Figura 24: La ENIAC.

Luego que la guerra terminó, comenzó una nueva era para la computación científica. Los recursos dedicados a la guerra fueron liberados y dedicados a la ciencia básica. En particular, el departamento de Marina y la Comisión de Energía Atómica de los EE.UU. decidieron continuar soportando el desarrollo de computadoras. Las principales aplicaciones eran la predicción numérica del tiempo, la mecánica de fluidos, la aviónica, el estudio de resistencia de los barcos a las olas, el estudio de partículas, la energía nuclear, el modelado de automóviles, etc.

En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el tambor magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento para computadoras. En este mismo año William Shockley, John Bardeen y Walter Brattain, de los laboratorios Bell, inventaron la resistencia de transferencia (transfer resistor), comúnmente conocida como Transistor. El concepto estuvo basado en el hecho de que el flujo de electricidad a través de un sólido (como el silicio) puede controlarse agregándose impurezas con las configuraciones electrónicas adecuadas. Las válvulas de vacío requieren cables, platos de metal, una cápsula de vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.

En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En el mismo año, entra en operación la Manchester Mark I, la primera computadora de programa almacenado. Fue diseñada por F. C. Williams y T. Kilburn en la Universidad de Manchester, y era un modelo experimental para probar una memoria basada en válvulas de vacío.

En 1949, Jay Forrester construye la computadora Whirlwind en el MIT. Contenía 5000 válvulas, palabras de 16 bits, y estaba específicamente diseñada para controlar dispositivos en tiempo real.

En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo operativa en Cambridge. Era una computadora de programa almacenado, que fue diseñada por Maurice Wilkes. Esta fue propuesta especialmente para resolver problemas reales, y pudo resolver variedad de cálculos. Su primer programa (una tabla de raíces cuadradas) lo ejecutó el 6 de Mayo de 1949, y siguió operando hasta 1958. La EDSAC tenía 512 palabras de 17 bits. Su diseño era bastante útil para el usuario. Un botón de inicio activaba un uniselector que cargaba un programa que estaba cableado a la Memoria, y este programa cargaba programas que estaban escritos en cinta de papel en la memoria, y se comenzaba a ejecutar. En esta época los cálculos se hacían bit por bit.

En 1949, el laboratorio de Los Alamos, se empieza a construir la computadora MANIAC I, que se terminó en Marzo de 1952. Esta computadora tenía un tambor auxiliar de 10.000 palabras de 40 bits en paralelo, y la unidad de entrada/salida tenía una cinta de papel de 5 canales, un drive de cinta de un solo canal, y también una impresora de línea.

Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que sería el primer lenguaje de programación de alto nivel.

En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se transformaría mas adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer Corporation.

En 1951, Jay Forrester presenta, dentro del proyecto Whirlwind, una memoria no volátil: la memoria de núcleos, que sería ampliamente difundida.

La primera UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina de Censos. Esta computadora pasó a ser la número uno en el mercado comercial. La UNIVAC I (véase Figura 25) fue diseñada y construida en Filadelfia por Eckerd and Mauchly Computer Company, fundada por los creadores de la ENIAC. Esta computadora utilizaba tubos de vacío.

UNIVAC I
Figura 25: La UIVAC I.

En el mismo año, Grace Murray Hopper construye el primer compilador, llamado A-0. También en este año, Maurice Wilkes origina el concepto de microprogramación, una técnica que provee una aproximación ordenada para diseñar la unidad de control de una computadora.

En 1952, Von Neumann , junto con Herman Goldstine, terminan de construir, en el Instituto de Estudios Avanzados de Princeton (IAS - Institute of Advanced Studies) la computadora IAS. Esta computadora también fue construida con el concepto de programa almacenado, y tenía otras características importantes. Por un lado, el diseño general de la máquina era el siguiente:

En 1952 también, se pone operativa la EDVAC , así como la ILLIAC I (de la Universidad de Illinois) y la ORDVAC (construida por la armada): Todas usan la arquitectura de Von Neumann. La ILLIAC (una copia mejorada de la ORDVAC) tenía 1024 palabras de 40 bits. En estas máquinas una suma tardaba nos 72 microsegundos, mientras que las multiplicaciones de punto fijo tenían un promedio de unos 700 microsegundos.

Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía que producía perforadoras de tarjetas y ordenadoras mecánicas de tarjetas. IBM no se interesó en producir computadoras, hasta que en 1952 produjo la IBM 701. Esta computadora tenía 2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la primera de una serie de computadoras científicas que dominaron la industria en la década siguiente. En 1953, la IBM 650 sale a la venta, y fue la primera computadora fabricada en serie. En 1955 apareció la IBM 704, que tenía 4K de memoria y hardware de punto flotante.


3.2. Segunda Generación: Transistores (1955-1965)

El invento del transistor (véase Figura 26) hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. El transistor requería menos energía que las válvulas termiónicas y además era mucho más seguro y fiable .

Transistores
Figura 26: Transistores.

La primera computadora puramente basada en transistores fue la TX-0 (Transitorized eXperimental computer 0), en el MIT. Esta fue un dispositivo usado para probar la TX-2. Uno de los ingenieros trabajando en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company).

En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer computadora comercial UNIVAC 2 puramente basada en transistores.

En 1957 la EDSAC 2 estuvo operativa. Era una computadora con 1024 palabras de 40 bits, con dos órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba núcleos de ferrita. La ALU era bit-sliced. Se incluyeron operaciones de punto flotante para hacer los cálculos más simples, que usaba una fracción de 32 bits y un exponente de 8 bits. La computadora era microprogramada, con una ROM 768 palabras. La ROM permitía que diversas subrutinas útiles (seno, coseno, logaritmos, exponenciales) estuvieran siempre disponibles. La memoria fija incluía un ensamblador y un conjunto de subrutinas de impresión que permitían hacer entrada/salida.

Los microprogramas permitieron que las órdenes pudieran ser diseñadas cuidadosamente, menos dependientes de accidentes del hardware. La computadora ejecutaba una instrucción simple en unos 20 microsegundos, y una multiplicación precisaba 250 microsegundos. La lectora de papel leía 1000 caracteres por segundo, y la perforadora perforaba 300 caracteres por segundo. La salida se seguía imprimiendo en una telelimpresora.

En el mismo año, la computadora ERMETH se construyó en el ETH en Zurich. Tenía palabras de 16 dígitos decimales, cada uno de los cuales contenía dos instrucciones y un número de punto fijo de 14 dígitos o un número de punto flotante con una mantisa de 11 dígitos. Una suma de punto flotante tomaba 4 milisegundos; una multiplicación, 18 milisegundos. Tenía un tambor magnético que podía almacenar 1000 palabras. La máquina tenía unos 1900 válvulas de vacío y unos 7000 diodos de germanio.

También en 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN (FORmula TRANslator). En 1958 se funda la compañía Digital, como fue mencionado principalmente. Inicialmente la DEC sólo vendía plaquetas con pequeños circuitos. En el mismo año, se producen los primeros circuitos integrados basados en semiconductores (en las compañías Fairchild y Texas Instruments), y también el proyecto Whirlwind se extiende para producir un sistema de control de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos (CODASYL - Commitee On Data Systems Language) para crear el lenguaje COBOL (Common Business Oriented Language), y John Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de inteligencia artificial.

El ordenador PDP-1 (véase Figura 27) de Digital Equipment Corporation, basado en el transistor, se presentó en Estados Unidos en 1960. Esta computadora fue diseñada tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de ciclo del procesador de aproximadamente 5 microsegundos. Fue la primera máquina con monitor y teclado, dando paso a lo que conocemos como minicomputadoras.

PDP-1
Figura 27: El PDP-1.

En 1961, Fernando Corbató en el MIT desarrolla una forma que múltiples usuarios puedan compartir el tiempo del procesador. También se patenta el primer robot industrial. En 1962, Steve Russell del M.I.T. crea el Spacewar (el primer vídeo juego). En 1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de la computadora.

En 1964, aparece el primer modelo de la computadora IBM 360. IBM había construido una versión con transistores de la 709, llamada IBM 7090, y posteriormente la 7094. Esta tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la computación científica en los '60s. IBM también vendía una computadora orientada a negocios llamada IBM 1401. Esta podía leer cintas magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija. Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un carácter de 6 bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a memoria movía datos de la fuente al destino hasta que encontraba el bit de fin de palabra prendido.

Un problema importante que surgió era la incompatibilidad de las computadoras; era imposible compartir el software, y de hecho era necesario tener dos centros de cómputos separados con personal especializado. Este problema termina con la aparición de la IBM System/360 (véase Figura 28) que era una familia de computadoras con el mismo lenguaje de máquina, y con mayor potencia.

IBM System 360
Figura 28: IBM System 360.

El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único problema era que, al aportar un programa de una versión poderosa a una versión anterior, el programa podía no caber en memoria). Todas las IBM system 360 tenían soporte para multiprogramación. También existían emuladores de otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados. Tenía un espacio de direcciones de 16 megabytes.

En este año se pone en operaciones la computadora CDC 6600 de la Control Data Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9 Mflops. (es decir, un orden de magnitud más que la IBM 7094), y es la primer supercomputadora comercial. El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutando a la vez). En este mismo año, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code).

En 1965, la DEC fabrica la PDP-8, que fue la primer minicomputadora con transistores en módulos de circuitos integrados. Esta tenía un único bus (o sea, un conjunto de cables paralelos para conectar los componentes de la computadora, en lugar de las líneas multiplexadas de las computadoras de Von Neumann tradicionales).

3.3. Tercera Generación: Circuitos Integrados (1964-1980)

[Desc_a]

La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (véase figura 29) (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

Figura 29: Circuitos integrados.
Circuito Integrado Circuito Integrado Circuito Integrado

La invención del circuito integrado reveló el potencial para extender el coste y los beneficios de operación de los transistores a todos los circuitos producidos en masa. La invención del circuito integrado permitió que docenas de transistores se pusieran en el mismo chip.

Este empaquetamiento permitió construir computadoras más pequeñas, rápidas y baratas que sus predecesores con transistores. Las primeras versiones de la IBM 360 eran transistorizadas, pero las versiones posteriores no solo eran más rápidas y poderosas, sino que fueron construidas en base a circuitos integrados. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965.

En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los fabricantes habían duplicado la densidad de los componentes por circuito integrado a intervalos regulares (un año), y que seguirían haciéndolo mientras el ojo humano pudiera ver.

En 1967, Fairchild introduce un chip que contenía una ALU de 8 bits: el 3800. En 1968, Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un principio se dedica a fabricar chips de memoria. En este mismo año, la computadora CDC 7600 logra la velocidad de 40 Mflops..

En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio entre computadoras y periféricos.

En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y baratos. En 1971, Intel lanza el microprocesador de 4 bits 4004 (véase Figura 30), el primer microprocesador en un solo chip. Tenía una potencia similar al ENIAC, con un coste bajo (200 dólares) y ocupa muy poco (12 mm2).

Microprocesador 4004
Figura 30: El Microprocesador 4004.

Ya en 1972, Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado por el 8080, debido al límite de memoria de 16k impuesto por los pins en el chip).

En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner 10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el protocolo Ethernet para comunicación en redes locales. En 1975, la primer computadora personal, la Altair 8800, aparece en la revista Popular Electronics, explicando cómo construirla. También en ese año, IBM introduce la primera impresora láser.

En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste principalmente de un tablero de circuitos. IBM introduce las impresoras a chorro de tinta en ese mismo año, y Cray Research introduce la Cray 1, una supercomputadora con una arquitectura vectorial. También Intel produce el 8085, un 8080 modificado con algunas características extra de entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era una computadora de 8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits.

En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada públicamente. En 1978, Intel desarrolla el 8088 y el 8086, con la posibilidad de multiplicar y dividir. Son prácticamente iguales, pero el bus del 8088 es de 8 bits, mientras que el del 8086 es de 16 bits. En este año DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular para aplicaciones técnicas y científicas. En 1979, Motorola introduce el procesador 68000 que sería más adelante el soporte para las computadoras Macintosh, Atari, Amiga y otras computadoras populares. Este procesador no era compatible con el 6800 o el 6809. Es un híbrido entre arquitecturas de 16 y 32 bits, y puede direccionar 16 Mb de memoria. De aquí en más los procesadores 680x0 siguen siendo muy similares desde el punto de vista del programador, con pocas instrucciones agregadas en cada versión nueva. También en este año aparecen los videodiscos digitales.

3.4. Cuarta generación de computadoras (1980-1990)

En 1980 se produce la primera computadora portable: la Osborne 1. David Patterson, en la UC. Berkeley, introduce el concepto de RISC, y junto con John Hennessy, de Stanford, desarrollan el concepto.

En 1981 se lanza la computadora de arquitectura abierta IBM-PC (véase figura 31), y un año más tarde se produce el primer "clon" de esta computadora.

IMB-PC
Figura 31: El IMB-PC.

Un joven americano obtuvo como resultado de grandes trabajos un sistema operativo compatible con el de IBM. Lo llamó DOS, siglas de Disk Operative System, porque además, entraba en un solo disquette.

Ese joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo de software, y marca el rumbo al mercado informático; se llama Bill Gates y su empresa, Microsoft. Las computadoras fabricadas por terceros, es decir, no por IBM, se extendieron rápidamente, su costo era hasta tres veces menores que la original del gigante azul, y por supuesto, el sistema operativo era el DOS de Bill Gates.

En la jerga, se comenzó a llamar a los PC'S, clones, o sea copias. IBM perdió el control muy pronto. El rumbo de la tecnología era marcado ahora por la empresa INTEL, que fabricaba los microprocesadores, lanzando uno nuevo aproximadamente cada año. De inmediato Bill Gates con su flamante empresa Microsoft, desarrollaba programas para aprovechar al máximo las capacidades de éste.

Los microprocesadores de una o varias pastillas fueron incorporados rápidamente en varios dispositivos: instrumentos científicos de medida, balanzas, equipos de alta fidelidad, cajas registradoras y electrónica aeronáutica. Muchas familias comenzaron a tener computadoras en sus casas, como por ejemplo las Texas Instrument 99/4ª, Commodore 64 y 128, Spectrum.


3.5. Quinta Generación (1990-2000)

Microsoft pasó a desarrollar software que exigía demasiado a los procesadores de INTEL, por lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos modelos. Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan quebrar el liderazgo INTEL-Microsoft, y lanzan el Power PC, un procesador que prometía hacer estragos, pero solo lo utilizan APPLE en sus computadoras personales e IBM en su línea de servidores AS400.

Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas circunstancias impulsaron a INTEL a crear un procesador distinto. Los anteriores eran continuas mejoras al 286 mas poderoso (386,486); así, en 1992, Intel anunció que la quinta generación de su línea de procesadores compatibles (cuyo código interno era el P5) llevaría el nombre Pentium en vez de 80586.

Este microprocesador se presentó en 1993 con velocidades iniciales de 60 y 66 MHz, 3.100.000 transistores (fabricado con el proceso BICMOS, de 0,8 micrones), caché interno de 8 KB para datos y 8 KB para instrucciones, verificación interna de paridad para asegurar la ejecución correcta de las instrucciones, una unidad de punto flotante mejorada, bus de datos de 64 bit para una comunicación más rápida con la memoria externa y, lo más importante, permite la ejecución de dos instrucciones simultáneamente. El chip se empaqueta en formato PGA (Pin Grid Array) de 273 pines.

En el Pentium, la unidad de punto flotante es una prioridad para Intel, ya que debe competir en el mercado de Windows NT con los procesadores RISC tales como el chip Alpha 21064 de Digital Equipment Corporation y el MIPS R4000 de Silicon Graphics.

Tiene un gran aumento en el consumo de energía, lo que hace que el chip se caliente demasiado y los fabricantes de tarjetas madres (motherboards) tengan que agregar complicados sistemas de refrigeración.

Intel puso en el mercado en 1994 la segunda generación de procesadores Pentium (90 y 100 MHz con tecnología de 0,6 micrones y, posteriormente se agregaron las versiones de 120, 133, 150, 166 y 200 MHz con tecnología de 0,35 micrones). Esto redujo drásticamente el consumo de electricidad.

En octubre de 1994, un matemático reportó en Internet que la Pentium tenía un error que se presentaba cuando se usaba la unidad de punto flotante para hacer divisiones (instrucción FDIV) con determinadas combinaciones de números. Por ejemplo:

El defecto se propagó rápidamente y al poco tiempo el problema era conocido por gente que ni siquiera tenía computadora, problema que posteriormente, los Pentium con velocidades más elevadas, no poseían este problema.

En 1997 apareció una tercera generación de Pentium, que incorpora lo que Intel llama tecnología MMX (MultiMedia eXtensions). Digamos que, por culpa de Internet, INTEL creó el MMX. En realidad es un Pentium con mejoras que optimizan la ejecución de vídeo y sonido multimedia en la PC.

Finalmente nacen los modelos Pentium Pro, Pentium II y Pentium III, llegando de esta forma a la actualidad. Hoy en día encontramos a la venta el Pentium III a unos 700 MHz; pero ya existen procesadores a más de 1000 Mhz.

PC
Figura 32: Ejemplo de un PC actual.






4. Descripción de los procesadores

[Avila00]

En este punto haremos un comentario sobre las características de los procesadores. Empezaremos con INTEL, quizá la marca más famosa, desde el 8086 hasta el Pentium III; y luego veremos otros fabriacantes, no menos importantes, como puedan ser AMD o Cyrix.

4. 1.Características a tener en cuenta en un procesador

Velocidad de reloj: Se mide en MHz. Mide los "ticks" de sincronía por segundo.

Ancho de palabra: Cantidad de bits que se procesan simultáneamente.

Coprocesador: Procesador especializado en determinadas tareas. Muchas veces se utiliza un procesador matemático.

Caché: Memoria de rápido acceso para aumentar el rendimiento. Guarda las posiciones accedidas recientemente con la esperanza de que se vuelvan a utilizar en poco tiempo.

Pipeline: Técnica de ejecución de las instrucciones consistente en dividirlas en distintas fases, de manera similar a las cadenas de fabricación en serie.

Predicción de salto: Técnica para mantener la "pipeline" llena intentando averiguar "qué viene después".

Ejecución desordenada: Técnica por la que se ejecutan las instrucciones en un orden que permita obtener mayor velocidad y que no siempre coincide con el orden en que fueron escritas.

Ejecución especulativa: Técnica que se emplea para ejecutar instrucciones aunque no se tenga la seguridad de que su resultado sea útil.


4.2. Los procesadores INTEL

4.2.1. INICIOS, EL 8086/8088

Los procesadores 8088 y 8086 fueron los primeros empleados en los PC.

Sus principales características son:


4.2.2. EL 80286

La siguiente generación fue la del 80286, empleado en el AT.

Sus principales características son:


4.2.3. EL 80386

Supone un gran avance.

Características:


4.2.4. EL 80486

Características

Si esto se compara a la arquitectura del 80386, no se observan diferencias. La diferencia más notable entre el 80386 y el 80486, es que casi la mitad de las instrucciones del 80486 se ejecutarán en la mitad de periodos de reloj que el 80386 requiere para ejecutarlas.

Al igual que el 80386, el 80486 contiene 8 registros de 32 bits para los propósitos generales.

Además de los registros de propósito general, el 80486 también contiene los mismos registros de segmentos que el 80386. Cada uno tiene 16 bits de ancho, como en todas las versiones anteriores de la familia.

El 80486 también contiene los registros para la tabla de descriptores globales, locales y de interrupciones y una unidad de manejo de memoria como el 80386.

Funcionamiento

El caché es una memoria especial, llamada memoria asociativa. Esta memoria tiene, asociado a cada unidad de memoria, un tag, que almacena la dirección de memoria que contiene los datos que están en la unidad de memoria. Para leer una posición de memoria mediante esta memoria se comparan todos los tags con esta dirección. Si algún tag tiene esta dirección, se dice que hubo un acierto, con lo que se puede leer la información asociada a ese tag. En caso contrario hay un fallo, con lo que hay que perder un ciclo de bus para leer el dato que está en memoria externa.

En el caso del 80486, cada unidad de memoria son 16 bytes. Esta cantidad es una línea del caché. Las líneas pueden ser válidas (cuando contienen datos de la memoria principal) o inválidas (cuando la línea no contiene información útil). Se debe tratar de no leer posiciones de memoria aleatorias, ya que el caché se llena por líneas completas (comenzando por direcciones múltiplos de 16),y si se llegan a leer bytes en posiciones alejadas unas de otras, el procesador usará cuatro ciclos de bus para leer 16 bytes (para llenar una línea) por cada byte que deseamos leer. Esto no supone un problema para el código o la pila, ya que éstos se acceden generalmente de manera secuencial.

Hay dos clases de cachés: write-through y write-back (retroescritura) (implementado solamente en los modelos write-back enhanced DX2 y write-back enhanced DX4). La diferencia entre las dos radica en el momento de escritura. Las primeras siempre escriben en la memoria principal, mientras que las otras sólo escriben cuando se llena el caché y hay que desocupar una línea. Esto último aumenta el rendimiento del sistema.

Hay dos nuevos bits del registro de control que controlan el funcionamiento del caché: CD (Cache Disable, bit 30) y NW (Not write-through, bit 29). Cuando CD = 1, el 80486 no leerá memoria externa si hay una copia en el caché, si NW = 1, el 80486 no escribirá en la memoria externa si hay datos en el caché (sólo se escribirá en el caché). Lo normal, cuando el caché está habilitado, es CD = NW = 0. Es interesante saber que si CD = NW = 1 se puede utilizar el caché como una RAM rápida (no hay ciclos externos de bus ni para lectura ni para escritura si hay acierto en el caché). Para deshabilitar completamente el caché se deberá poner CD = NW = 1 y luego ejecutar una de las instrucciones para vaciar el caché.

Existen dos instrucciones para vaciar el caché: INVD y WBINVD.

Versiones del 80486

  1. 80486 DX:Fue presentado por Intel en abril de 1989. Poseía un total de 1.200.000 transistores, el doble de la velocidad del 80386 y 100% de compatibilidad con los microprocesadores anteriores. El consumo máximo del 486DX de 50 MHz es de 5 watt.

  2. 80486 SX: Apareció en abril de 1991. Era un producto de menor coste que el anterior. Pero éste no poseía el coprocesador matemático que posee el 80486 DX. Y el número de transistores se reducía 1.185.000.

  3. 80486 DX2: Apareció en marzo de 1992. Posee un duplicador de frecuencia interno, con lo que las distintas funciones en el interior del chip se ejecutan al doble de velocidad, manteniendo constante el tiempo de acceso a memoria. Esto permite casi duplicar el rendimiento del microprocesador.

  4. 80486 SL: Apareció en el mismo año que el anterior, con unas características especiales de ahorro de energía.

  5. 80486 DX4: Salió en 1994 y triplica la frecuencia de reloj y aumenta el tamaño del caché interno a 16 Kbytes. La principal diferencia entre el 486DX4 y el 486DX2 es que el primero es 1'5 veces más rápido que el 486DX2.

El chip se empaqueta en el formato PGA (Pin Grid Array) de 168 pines en todas las versiones. En el caso del SX, también existe el formato PQFP (Plastic Quad Flat Pack) de 196 pines. Las frecuencias más utilizadas en estos microprocesadores son: SX: 25 y 33 MHz, DX: 33 y 50 MHz, DX2: 25/50 MHz y 33/66 MHz y DX4: 25/75 y 33/100 MHz. En los dos últimos modelos, la primera cifra indica la frecuencia del bus externo y la segunda la del bus interno.

Respecto las nuevas instrucciones del 80486 tan sólo nombraremos las más interesantes: BSWAP reg32 (Byte Swap), CMPXCHG dest src (Compare and Exchange), INVD (Invalidate Cache), INVLPG (Invalidate Translation Look-Aside Buffer Entry), WBINVD (Write Before Invalidate Data Cache), XADD dest, src (Exchange and Add).

Además de las citadas, todos los modelos, excepto el SX incluyen todas las instrucciones del coprocesador matemático 80387.


4.2.5. EL PENTIUM

Características

Vías de acceso múltiples

El los procesadores 386 y 486 se empezó a utilizar una técnica de vías de acceso múltiples. Esto se ve mejorado en el Pentium, ya que éste posee doble vía de dicho acceso. El objetivo es el de procesar múltiples instrucciones simultáneamente, en varios estados de ejecución.

El resultado final de la estructura doble vía de acceso es un diseño capaz de ejecutar más de una instrucción en un ciclo de reloj.

El Pentium, al igual que el 486, ejecuta instrucciones simples con enteros en un ciclo de reloj. Sin embargo, aquellas instrucciones estaban en la etapa de ejecución de la vía de acceso durante un ciclo de reloj. Siempre se requieren ciclos adicionales de reloj para buscar, decodificar la instrucción y otros procesos vitales. La secuencia de funcionamiento de la vía de datos es la siguiente: prebúsqueda, decodificación 1, decodificación 2, ejecución y retroescritura.

En el caso óptimo, las instrucciones estarían alineadas en la vía de acceso de forma que, en general, ésta ejecutará aproximadamente una instrucción por ciclo de reloj.

Los aspectos superescalares del Pentium dependen de su vía de acceso doble. Los procesadores superescalares permiten que se ejecute más de una instrucción por vez. El procesador tiene dos vías de acceso de enteros, una en forma de U y otra en forma de V, y automáticamente aparea las instrucciones para incrementar la proporción de instrucciones por ciclo de reloj para que sea mayor que 1. Si el tener múltiples instrucciones pasando por dos vías no es ni mucho menos un problema, ya que hay reglas y restricciones que evitan las colisiones y los retrasos.

Por ejemplo, los conflictos principales que tienen que ver con generar y ejecutar más de una instrucción al mismo tiempo incluyen dependencias de información (la información de salida de una instrucción se necesita como entrada de otra), dependencias de recursos (instrucciones que fueron emitidas al mismo tiempo compiten por el mismo recurso del microprocesador) o saltos en el código (llamadas dependencias de procedimiento).

Si se detectara una dependencia, el procesador reconoce que las instrucciones deben fluir en orden y asegura que la primera instrucción termine su ejecución antes de generar la segunda instrucción.

El orden en que viajan las instrucciones por las vías dobles del Pentium es el mismo que el de las instrucciones en el programa que se ejecuta.

Las instrucciones de punto flotante pasan las vías de entero y son manipuladas desde la vía de punto flotante en la etapa de ejecución. En definitiva, las vías de enteros y el de punto flotante operan independiente y simultáneamente.

Ejecución de punto flotante en el Pentium

Se ha reconstruido por completo la unidad de punto flotante (FPU), a partir de la de los 386 y 486 y ahora tiene algunas de las características de los RISC. Hay ocho etapas de vía y las cinco primeras se comparten con la unidad de enteros. La unidad cumple con la norma IEEE-754, usa algoritmos más rápidos y aprovecha la arquitectura con vías para lograr mejoras de rendimiento de entre 4 y 10 veces, dependiendo de la optimización del compilador.

Ahorro de energía

El Pentium usa un modo de administración de sistema (SMM) similar al que usa el 486 SL, que permite que los ingenieros diseñen un sistema con bajo consumo. La interrupción de administración del sistema activa el SMM por debajo del nivel del sistema operativo o de la aplicación. Se guarda toda la información sobre el estado de los registros para después restaurarla, y se ejecuta el código manejador de SMM desde un espacio de direcciones totalmente separado, llamado RAM de administración del sistema (SMRAM). Se sale del SMM ejecutando una instrucción especial (RSM). Esto lleva al CPU de nuevo al mismo punto en que estaba cuando se llamó al SMM.

Algunos procesadores (100 MHz o más lentos) presentan problemas en este modo.

Respecto a las nuevas instrucciones introducidas en el microprocesador Pentium cabe citar las siguientes: CMPXCHG8B reg, mem64 (Compare and Exchange 8 Bytes), CPUID (CPU Identification), RDMSR (Read from Model-Specific Register), RDTSC (Read from Time Stamp Counter), RSM (Resume from System Management Mode), WRMSR (Write to Model-Specific Register).


4.2.6. EL PENTIUM PRO

Se concentra en el rendimiento de las aplicaciones de 32bits, llegando a ejecutar más lentamente que el Pentium normal las de 16 bits. Algunas características son:


4.2.7. Los procesadores MMX

Surgió porque las aplicaciones actuales requieren el manejo de muchos gráficos a gran velocidad, y además el manejo del sonido es cada vez más normal. En ambos casos se procesa información en unidades de uno o dos bytes; pero el Pentium sólo puede manejar hasta 64 bits.

La solución propuesta por Intel consiste en incorporar 57 nuevas instrucciones que permitan manejar varios bytes al mismo tiempo.

Además, estos procesadores tienen otras características adicionales:

Hay varios tipos de procesadores MMX, de los cuales citaremos sólo dos:


Figura 34: Logo MMX OverDrive.


4.2.8. EL PENTIUM II

Características

Características Técnicas

El Procesador Pentium II trabajando

Las empresas pequeñas tanto como las grandes pueden beneficiarse del procesador Pentium II. Éste entrega un gran desempeño disponible para las aplicaciones que se ejecutan en sistemas operacionales avanzados tales como Windows 95, Windows NT y UNIX.

Sobre su poder como procesador Pentium Pro, el procesador Pentium II aprovecha el software diseñado para la tecnología MMX de Intel para desbordar la pantalla plena, vídeo de movimiento total, colores más vivos, gráficas más rápidas y otras mejoras en los medios. Con el tiempo, muchas aplicaciones para empresas se beneficiarán del desempeño de la tecnología MMX. Éstas incluyen:

La tecnología MMX mejora la compresión/descompresión de vídeo, manipulación de imágenes, criptografía y el procesamiento I/O ("Entrada/Salida").

Rendimiento en DOS

El Pentium II no es muy bueno en las aplicaciones del DOS con resoluciones bajas, sin embargo el Pentium MMX tiene un mejor desempeño, y aunque el Pentium Pro no es un procesador optimizado para aplicaciones de 16 bits también resulta mejor.

Pero actualmente es muy difícil encontrar programas que trabajen en dichas resoluciones del DOS, la mayoría de software está disponible para 32 bits, es decir Windows 95 y sistemas operativos superiores.

Rendimiento en WINDOWS 95.

Este procesador tiene un desempeño importante en todo lo que se refiere a operación gráfica y multimedial, particularmente con código de 32 bits, sin embargo su rendimiento no es destacable con código de 16 bits, contra su más directo opositor, el Pentium MMX. Un punto a favor del Pentium II es su rendimiento de operación interna.

Rendimiento en WINDOWS NT.

Windows NT siempre ha sido del dominio del Pentium Pro. Parece que por un buen tiempo más, el Pentium Pro no tendrá rivales en aplicaciones puras y nativas de 32 bits.

Rendimiento MMX

El Pentium II en aplicaciones usa intensivamente el conjunto de instrucciones MMX. En puntos específicos como puede ser la velocidad de vídeo, el procesamiento de imágenes, gráficos tridimensionales y audio el Pentium II está claramente mejorado. Es importante destacar el rendimiento del Pentium MMX, que sigue demostrando una capacidad mejorada gracias a la tecnología MMX. Desde ese punto de vista, ambos procesadores son relativamente similares, no tanto en estructura, ya que el Pentium II se asemeja estructuralmente más al Pentium Pro, pero si en el tamaño de los cachés y en el rendimiento. Sin embargo, el Pentium II, en definitiva, debe ser mejor que el Pentium MMX por su nueva estructura interna.


4.2.9. LOS CELERON

Intel ante la competencia del AMD K6 debido a su menor precio decidió sacar una versión "reducida" del Pentium II: el Celeron.

Inicialmente, el Celeron era un Pentium II sin la caché de nivel 2, esto rebaja el precio, pero también las prestaciones. Las velocidades del Celeron son de 266 y 300 MHz.

Sin embargo los nuevos Celeron tienes una caché de nivel 2, aunque más reducida que la del Pentium II (128 Kb). Como ventaja, la caché trabaja a la misma velocidad que el procesador (está integrada).

Los últimos modelos llegan a los 466 MHz.

4.2.10. LA GAMA XEON

Los Xeon son la gama alta de la familia Pentium (lo que antes era Pro).

Están destinados a servidores y estaciones de trabajo de altas prestaciones.

Características:


4.2.11. PENTIUM III

Introducción.

Es el último modelo de la familia Pentium.

Características:

El procesador

El procesador Intel Pentium III presenta varias funciones nuevas para un rendimiento, productividad y capacidad de gestión máximos. Para los usuarios que interactúan con Internet o que trabajan con aplicaciones multimedia con muchos datos, las innovaciones más importantes son las extensiones "Streaming SIMD" del procesador Pentium III, 70 instrucciones nuevas que incrementan notablemente el rendimiento y las posibilidades de las aplicaciones 3D, de tratamiento de imágenes, de vídeo, sonido y de reconocimiento de la voz.

El procesador Intel Pentium III ofrece excelentes prestaciones para todo el software para PC y es totalmente compatible con el software existente basado en la arquitectura Intel. El procesador Pentium III a 500 y 450 MHz amplía aún más la potencia de proceso, ya que deja un margen para una mayor exigencia de rendimiento para funciones de Internet, comunicaciones y medios comerciales. El software diseñado para el procesador Pentium III libera todas las posibilidades multimedia del procesador, incluido el vídeo de pantalla completa y movimiento pleno, gráficos realistas y la posibilidad de disfrutar al máximo de Internet. Los sistemas basados en el procesador Pentium III también incluyen las últimas funciones para simplificar la gestión del sistema y reducir el coste total de propiedad para entornos de empresas grandes y pequeñas.

Los microprocesadores actuales se utilizan para ejecutar una amplia gama de aplicaciones de software. Y, sobre todo, últimamente, la utilización de aplicaciones multimedia, 3D e Internet ha experimentado un tremendo auge en los últimos años y se prevé que esta tendencia continúe en el futuro.

Se puede observar una mejora y un mayor rendimiento por parte del Pentium III en aplicaciones multimedia o en 3D en comparación con procesadores como el PentiumII a 450Mhz.

Actualmente se intentan desarrollar aplicaciones de próxima generación para aumentar el rendimiento del procesador Pentium III. Al actualizar los nuevos programas se intenta que el rendimiento del PentiumIII con éstos sea el máximo.

Actualmente, la familia del procesador Intel Pentium III a llegado a sacar procesadores de hasta 700MHz, e incluso ya se están planteando nuevas fechas para sacar de mayores velocidades.

El procesador Intel Pentium III ofrece nuevos niveles de rendimiento y productividad para las aplicaciones y sistemas operativos actuales más exigentes.


Figura 35: Procesador Pentium III


CARACTERÍSTICAS DEL PENTIUM III

Compatibilidades.

El procesador Pentium III es totalmente compatible con prácticamente todo el software para PC basado en sistemas operativos tales como MS-DOS*, Windows* 3.1, Windows para Trabajo en Grupo* 3.11, Windows* 98, Windows* 95, OS/2*, UnixWare*, SCO UNIX*, Windows* NT, OPENSTEP*, y Sun Solaris*.

Extensiones "Streaming SIMD"

Las extensiones "Streaming SIMD" constan de 70 nuevas instrucciones que incluyen: instrucciones únicas, datos múltiples para coma flotante, instrucciones de enteros SIMD adicionales e instrucciones para el control del almacenamiento caché. Entre las tecnologías que se benefician de las extensiones "Streaming SIMD" se incluyen las aplicaciones avanzadas de tratamiento de imágenes, sonido y vídeo, y reconocimiento de la voz. Más concretamente:

Número de serie del procesador Intel

El número de serie del procesador actúa como número de serie electrónico para el procesador, y sirve para que tanto el usuario como el sistema puedan ser identificados en red. Este número de serie se utilizará en aplicaciones que se beneficien de métodos más estrictos de identificación de sistemas y usuarios.

Funciones destacadas del procesador Pentium III

4.3. Procesadores AMD

Es el principal competidor de Intel en la gama alta.

Ha seguido desarrollando chips que se ajustan al socket 7 (el de Pentium).

Productos actuales:

4.3.1. AMD K6-II

Es comparable al Pentium II (véase Tabla 3).

Tabla 3: Diferencias entre el Pentium II y el K6-II.
PENTIUM II K6-II
Cachè nivel 1 32K 64K
Cachè nivel 2 512K 0K
Cachè nivel 3 No
MMX
Gráficos 3D Sí(3D Now!)
Multiprocesador No

4.3.2. AMD K6-III

Es comparable al Pentium III (véase Tabla 4).

Tabla 4: Diferencias entre el Pentium III y el K6-III.
PENTIUM III K6-III
Cachè nivel 1 32K 64K
Cachè nivel 2 512K,1M,2M 256K*
Cachè nivel 3 No Sí (hasta 2M)
MMX
Gráficos 3D Sí(3D Now!)
Multiprocesador No

*Pero a la velocidad del procesador (el Pentium III la tiene a la mitad)

4.3.3. AMD ATHLON

Es el lanzamiento más reciente de AMD. Rivaliza con el Xeon.

Características:


4.4. Procesadores CYRIX

Cyrix fabrica procesadores de gama media/baja.

Su producto más reciente, el MII, compite con el Pentium II y el Celeron.

Características:






5. Influencias de la Informática en la sociedad

5.1. Relación con otras ciencias

Nos encontramos en una etapa de la historia de profunda transición que puede configurar un tipo totalmente nuevo de sociedad. Un factor muy importante de esta transición posiblemente sea la nueva tecnología, y en particular la informática.

La informática en estos últimos años ha ido auxiliando a la mayoría de las ciencias, como las matemáticas, la electrónica, medicina, etc. En este apartado veremos la relación que a tenido con la mayoría de ellas.

5.1.1. Informática y medicina

Desde hace dos décadas, las computadoras ayudan a los profesionales de la medicina en su larga lucha contra la enfermedad, ganando de esta forma tiempo que es muy importante para la vida del paciente.

En la medicina especializada las computadoras reducen la posibilidad de error en el diagnóstico y acelera su formulación. Ofrece al médico un gran banco de datos con informaciones relativas a pacientes, tales como historial médico, tratamiento de enfermedades, estadísticas de epidemias, etc.

Hoy por hoy medicina e informática van cogidas de la mano, ya que no pueden vivir separadas; sin medicina no hay informáticos sanos y sin los computadores la medicina se encontraría estancada con muy pocas posibilidades de avanzar.

Destaquemos que los robots abren nuevos campos positivos y esperanzadores en lo que se refiere a operaciones quirúrgicas. ¿Quien sabe si dentro de unas décadas podemos ser operados sin riesgo algunos po 'médicos artificiales'?.

5.1.2. Computación, Diseño y Fabricación

Otro de los campos en el que la computación está haciendo impacto, es el del Diseño asistido por computadora (CAD) y el de la fabricación asistida por computadora (CAM); ya que la utilización de computadoras en el diseño y fabricación de máquinas abaratan los costos de producción.

La rápida disponibilidad del diseño de las piezas, hace que puedan programarse con anticipación los robots industriales, que van a construir o ensamblar dichas piezas.

5.1.3. Computación y Telecomunicaciones

La tecnología en telecomunicaciones avanza a la misma velocidad que la computación; en realidad su marcha es común.

Las buenas comunicaciones electrónicas no sólo dependen de tener un hardware veloz. También es necesario contar con un software apropiado que lo haga funcionar, es decir, un buen programa de comunicaciones.

Existen hace tiempo usuarios de redes telefónicas para la comunicación de textos, imágenes y sonidos. Además se trabaja con redes telefónicas públicas o privadas que solamente transmiten datos. Las compañías de estas redes telefónicas, además de utilizarlas para su propio trabajo, las alquilan para su uso en diversas actividades tales como la radiodifusión, televisión, transportes, comercio, etc.

5.1.4. Computación y Sector del Comercio

Las computadoras también han llegado al mundo de los negocios y del comercio, realizando funciones no sólo de cajas registradoras, sino también de herramientas para almacenar datos, calcular costos, mantener almacenes al día, etc. Permiten, en definitiva llevar este tipo de empresas de una manera mas organizada y tener siempre una visión de conjunto lo mas aproximada posible a la realidad, con todos los datos al día, y poder hacer un cálculo muy exacto de su rentabilidad.

5.1.5. Computación y Deportes

Cada día se utiliza mas la potencia de la computadora en el campo deportivo, de tal manera que se ha llegado a un punto tal en que es casi imposible la organización de cualquier acontecimiento deportivo sin pensar en la computadora. Esta se utiliza en toda clase de eventos deportivos, en los que el tiempo es uno de los factores principales. Por ejemplo, en natación, atletismo, automovilismo, motociclismo, etc.

5.1.6. Computación y Animación

Cada vez más podemos ver en el cine o en la televisión imágenes espectaculares que parece imposible que se hayan podido filmar a partir de algo real. Sin embargo, por extraño y fastidioso que pudiera parecernos, así es en realidad: estas imágenes han sido generadas por una computadora (un ejemplo muy destacado es la película Matrix). La técnica de animación por computadora proporciona a los medios audiovisuales, muchas posibilidades de trucaje de imágenes y efectos especiales, que hacen que el espectador se sienta atraído por ellos.

Este nuevo arte se llama CGI (Imágenes Generadas por Computadora), y no sólo se aplica a la realización de películas o reportajes sino que también suele utilizarse en los anuncios televisivos.

5.1.7. Computación y Simulación

Una de las maneras más importantes en que las computadoras ayudan al hombre a realizar planificaciones para el futuro, es la simulación.

La computadora es una herramienta casi imprescindible en los estudios de la simulación al poder generar muchos miles de condiciones diferentes en muy poco tiempo que pueden tener incidencia dentro del modelo, así como registrar y ordenar todos los resultados obtenidos.


5.2. Cultura, informática y comunicación

5.2.1. Informática en la educación

[Beccrey96]

Informática no puede ser una asignatura más, sino la herramienta que pueda ser útil a todas las materias, a todos los docentes y a la escuela misma, en cuanto institución que necesita una organización y poder comunicarse con la comunidad en que se encuentra. Entre las aplicaciones más destacadas que ofrecen las nuevas tecnologías se encuentra la multimedia que se inserta rápidamente en el proceso de la educación y ello es así, porque refleja cabalmente la manera en que el alumno piensa, aprende y recuerda, permitiendo explorar fácilmente palabras, imágenes, sonidos, animaciones y videos, intercalando pausas para estudiar, analizar, reflexionar e interpretar en profundidad la información utilizada buscando de esa manera el deseado equilibrio entre la estimulación sensorial y la capacidad de lograr el pensamiento abstracto. En consecuencia, la tecnología multimedia se convierte en una poderosa y versátil herramienta que transforma a los alumnos, de receptores pasivos de la información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando la educación, al permitir a cada alumno avanzar según su propia capacidad. No obstante, la mera aplicación de la multimedia en la educación no asegura la formación de mejores alumnos y futuros ciudadanos, si entre otros requisitos dichos procesos no van guiados y acompañados por el docente. El docente debe seleccionar criteriosamente el material a estudiar a través del computador; será necesario que establezca una metodología de estudio, de aprendizaje y evaluación, que no convierta por ejemplo a la información brindada a través de un CD-ROM en un simple libro animado, en el que el alumno consuma grandes cantidades de información que no aporten demasiado a su formación personal. Por sobre todo el docente tendrá la precaución no sólo de examinar cuidadosamente los contenidos de cada material a utilizar para detectar posibles errores, omisiones, ideas o conceptos equívocos, sino que también deberá fomentar entre los alumnos una actitud de atento juicio crítico frente a ello.

A la luz de tantos beneficios resulta imprudente prescindir de un medio tan valioso como lo es la Informática, que puede conducirnos a un mejor accionar dentro del campo de la educación. Pero para alcanzar ese objetivo, la enseñanza debe tener en cuenta no sólo la psicología de cada alumno, sino también las teorías del aprendizaje, aunque se desconozca aún elementos fundamentales de esos campos. Sin embargo, la educación en general y la Informática Educativa en particular, carecen aún de estima en influyentes núcleos de la población, creándose entonces serios problemas educativos que resultan difíciles de resolver y que finalmente condicionan el desarrollo global de la sociedad. La mejora del aprendizaje resulta ser uno de los anhelos más importante de todos los docentes; de allí que la enseñanza individualizada y el aumento de productividad de los mismos son los problemas críticos que se plantean en educación; el aprendizaje se logra mejor cuando es activo, es decir cuando cada estudiante crea sus conocimientos en un ambiente dinámico de descubrimiento. La duración de las clases y la metodología empleada en la actualidad, son factores que conducen fundamentalmente a un aprendizaje pasivo. Dado que la adquisición de los conocimientos no es activa para la mayoría de los estudiantes la personalización se hace difícil. Sería bueno que los docentes dedicasen más tiempo a los estudiantes en forma individual o en grupos pequeños; solamente cuando cada estudiante se esfuerza en realizar tareas, podemos prestarle atención como individuo.

En este marco, la nueva tecnología interactiva, fruto de la asociación de la informática, las comunicaciones, la robótica y el manejo de las imágenes, revolucionará el aprendizaje resolviendo dichos interrogantes, los que en la actualidad limitan la evolución del sistema educativo. El componente principal para el progreso será el desarrollo de cursos y de currículas de estudio enteramente nuevos. Los puntos esenciales de la reforma educativa pasan entonces por la capacitación de los docentes y el desarrollo de nuevos materiales de aprendizaje, utilizando en lo posible tecnología informática interactiva. Es necesario reconocer que no hay una sola filosofía que abarque toda la temática, pero ciertamente si disponemos de variados materiales podremos realizar evaluaciones conjuntas de los productos y analizar otras técnicas de aprendizaje. Todo proyecto de informática educativa deberá entonces tener en consideración que lo más importante de la educación no consiste en instruir sobre diversos temas, lo cual es siempre necesario, sino en transmitir y hacer encarnar en la conducta de los alumnos los valores y creencias que dan sustento al estilo de vida que ha elegido la sociedad para lograr su vigencia. La incorporación de nuevos avances tecnológicos al proceso educativo necesita estar subordinada a una concepción pedagógica global que valorice las libertades individuales, la serena reflexión de las personas y la igualdad de oportunidades, hitos trascendentes en la formación de las personas, con vistas a preservar en la comunidad los valores de la verdad y la justicia. La computadora es entonces una herramienta, un medio didáctico eficaz que sirve como instrumento para formar personas libres y solidarias, amantes de la verdad y la justicia. En consecuencia toda evaluación de un proyecto de Informática Educativa debería tener en consideración en qué medida se han logrado esos objetivos.


5.2.2. Educación a distancia

Hoy en día, la educación a distancia se mantiene bajo los mismos parámetros de la educación clásica donde al estudiante se le obliga a aprender una serie de temas que son equivalentes a los de la educación clásica. La idea de la educación a distancia elimina de raíz la subjetividad, ya que no hay un conocimiento directo entre alumno y profesor, también porque permite el acceso programado y ordenado al programa de estudio, así como tareas recomendadas por él. El profesor puede recomendar al estudiante la navegación en las páginas de Internet que él considere más importantes, además se podría evaluar al estudiante por medio de un formulario.

Lo malo de esto es conseguir dinero suficiente para la compra de un ordenador y el acceso a Internet, ya que en países pobres como Perú, el ingreso de la mayoría de las familias no permite tener un PC en casa.

Es pues esto lo que se teme de la educación a distancia, ya que un ciudadano no podría acceder a la información vía Internet, además se están creando generaciones de jóvenes bien informados con lo último proporcionado por Internet y otra generación (que son la mayoría) que en muchos casos no puede disponer de ella. Este desigual acceso a la información hace que las oportunidades de superación de mucha gente sean mínimas.


5.2.3. Internet (Un mundo global)

La tecnología de Internet es una precursora de la llamada 'superautopista de la información', un objetivo teórico de las comunicaciones informáticas que permitiría proporcionar a colegios, bibliotecas, empresas y hogares acceso universal a una información de calidad que eduque, informe y entretenga. A principios de 1996 estaban conectadas a Internet más de 25 millones de computadoras en más de 180 países, y la cifra sigue en aumento.

- Definición

Interconexión de redes informáticas que permite a las computadoras conectadas comunicarse directamente. El término suele referirse a una interconexión en particular, de carácter planetario y abierto al público, que conecta redes informáticas de organismos oficiales, educativos y empresariales. También existen sistemas de redes más pequeños llamados intranet, generalmente para el uso de una única organización.

- Historia:

El embrión de lo que es hoy Internet surgió a finales de los años sesenta, de la necesidad del gobierno de los Estados Unidos de resolver un problema de estrategia militar, en el periodo de la Guerra Fría, que tenía como misión conectar los ordenadores de diferentes instituciones militares.

RAND Corporation una empresa encargada de la estrategia militar propuso la creación de una red de comunicaciones que no dependiera de un organismo central, con el fin de que las comunicaciones no se interrumpieran si alguna de las instituciones era destruida.

ARPA una agencia decidió crear un proyecto mayor sobre esta tecnología de redes en Estados Unidos. Para ello se trabajó en el desarrollo de unos protocolos (series de normas para enviar información) que pudieran ser entendidos por todos los ordenadores, independientemente de sus sistemas operativos. Estas normas se conocen con el nombre de protocolos TCP/IP, y conforman un lenguaje universal. De esta forma crearon ARPANET, la primera red.

Las universidades estadounidenses se percataron de las enormes posibilidades de intercambio de información que representaba este proyecto, sobre todo después de que Tomlison crease un programa capaz de enviar mensajes entre ordenadores. En los años siguientes creció el numero de universidades conectadas, apareciendo así nuevas redes, como USENET y BitNet, cuya interconexión dio lugar a INTERNET.

A finales de los ochenta (1989), un investigador llamado Tim Berners-Lee, inventó un sistema de intercambio de información en la red, así nació World Wide Web, el elemento que más ha contribuido a popularizar Internet.

- Que ofrece Internet

Correo electrónico:

Es el servicio más popular de la Red. Permite enviar y recibir información desde cualquier lugar del mundo. Incluye modalidades como las listas de correo, que ofrecen la posibilidad de enviar mensajes a un gran número de personas, o los grupos de noticias, que funcionan como foros públicos de discusión organizados por temas.

World Wide Web:

Por este servicio se suele identificar a toda la Red. Si bien en un principio fue creado como un sistema de intercambio de información multimedia entre ordenadores, se ha demostrado que sus posibilidades son enormes, pues permite ver, buscar o publicar información, conversar con otros usuarios, realizar compras, descargar programas y archivos, etc.

Otros servicios:

Internet permite recibir o enviar cualquier tipo de archivo mediante el protocolo FTP, conversar con multitud de usuarios por medio del IRC o utilizar los servicios tradicionales de telefonía a precios de llamada local.

- Fusión con la comunicación

La tecnología se ha metido en nuestra vida. En los últimos años, el uso de las nuevas tecnologías, especialmente de las tecnologías de la información y de las comunicaciones (TIC), se ha introducido tanto en la sociedad que ahora es un tema común en conversaciones y medios de comunicación.

La expansión de Internet ofrece nuevas posibilidades de comunicación, es por esto que en la Red hay más de cuatro mil medios de comunicación (periódicos, radios, televisores, agencias de noticias...). Se trata de un nuevo medio de comunicación, que denominamos "comunicación on-line". A continuación describimos sus características.

Los medios de comunicación han ido evolucionando en la Red hasta llegar a ofrecer servicios informativos muy variados, pero ciertamente homogéneos, en los que apenas se puede distinguir que empresa lo ha creado. Los efectos que produce este fenómeno son varios:

Se difuminan las líneas que tradicionalmente delimitan a los medios y a sus audiencias. Todas se dedican a emitir información, sin importar qué formato (texto, imagen, audio) predomina en sus páginas-web. Los usuarios ya no se conectan a un sitio-web por que se trate de una empresa de prensa escrita o de televisión, sino porque de entre toda la oferta existente y que ellos conocen es la que mejor contenidos le ofrece.

Se incrementa el número de competidores, empresas, que luchan por los usuarios. Empresas que antes no tenían nada que hacer contra otras más grandes se empiezan ha dejar ver, como el caso de Yahoo.

El actual periodismo on-line no se basa en muchas ideas nuevas, es más bien la combinación de ideas antiguas pero realizadas mejor, más rápido, con un diseño más innovador, con contenidos personalizados, etc.

A los servicios informativos on-line actuales hay que verlos como lo que son, el paso intermedio entre los medios tradicionales y los futuros medios que realizarán comunicación multimedia.

  • El futuro

    Internet no ha hecho más que iniciar su andadura como red de comunicación y servicios. El futuro anuncia multitud de posibilidades. Algunas ya se dejan ver, como el comercio electrónico, el teletrabajo o la educación a distancia. Otras están en proyecto, como la telemedicina, los juegos de realidad virtual o la transmisión fluida de vídeo. Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier información en Internet.

    Las nuevas aplicaciones permitirán realizar transacciones económicas de forma segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que puedan ver lo que quieran en el momento que quieran.






    Conclusión

    Los microprocesadores, a través de su aplicación generalizada en la automatización de los procesos productivos -robots- y del sector terciario, prometen producir lo necesario para satisfacer todas las necesidades de un país; proporcionando la calidad de vida adecuada para todos y liberándonos de las tareas más insatisfactorias, sin agotar ni degradar los recursos del planeta. Una cuestión fundamental es saber si los estamentos decisorios y ejecutivos, con el soporte de la opinión pública debidamente informada, optarán, de forma consciente, para utilizar las nuevas posibilidades de la microelectrónica en orden a configurar una sociedad humanizadora. Ojalá que los Estados que lo deseen, también los del tercer mundo, puedan disfrutar de la revolución informática y entrar en la época de la cibercultura.

    Parece evidente que estamos ante un fenómeno social nuevo de magnitudes similares a la invención de la imprenta o de la máquina de vapor; es más, si tenemos en cuenta la velocidad de implantación de las nuevas tecnologías en la sociedad actual, podríamos decir que su impacto en la sociedad a corto y medio plazo puede que sea incluso mayor.

    En fin, comenzamos hablando de 'simples' ayudas de cálculo, y hemos llegado a un punto en el que esas máquinas o herramientas han evolucionado tanto que ya no sólo sirven para hacer cálculos. Poco a poco se ha ido cambiando ese objetivo que en su momento fue el principal, haciéndolo más general; es decir, las computadoras actuales pueden simplificar gran parte de las tareas diarias de los seres humanos, no sólo las opereaciones matemáticas. Posiblemente nos podiamos haber ahorrado esta conclusión, ya que en el punto 5 se expone, aunque de forma muy simplificada, hasta dónde ha llegado la informática y de que manera nos influye.






    Referencias

    [Beccrey96]

    Ingenieros Luis P. Beccaria y Patricio E. Rey (1996). La insercción de la informática en la sociedad y sus efectos en la reconversión laboral.
    http://phoenix.sce.fct.unl.pt/ribie/cong_1996/CONGRESSO_HTML/110/Colombia.html

       
    [Menendez98]

    Página del profesor Rafael Menéndez-Barzanallana Asensio (1998). Historia de la Informática.
    http://arraquis.dif.um.es/~rafa/4trab.htm

       
    [Giles_]

    Nalleli Shunashi Giles Villanueva. Historia de las Computadoras.
    http://www.multired.com/computa/nagilvil

       
    [Laredo00]

    Instituto Tecnológico de Nuevo Laredo (2000). Histotia de la Computadoras.
    http://www.teclaredo.edu.mx/Sitios/Sistemas/Sitio%201.htm

       
    [Marmaneu99]

    Agustin Marmaneu Romero (1999).Tablas de Neper.
    http://www4.uji.es/~al017130/index2.htm

       
    [Garzon99]

    Miguel Ángel Garzón Mateu (1999).Antecesores de nuestros ordenadores.
    http://www4.uji.es/~al022845/e08/

       
    [Martinez99]

    Ausiàs Josep Martínez Diranzo (1999). Charles Babbage
    http://www4.uji.es/~al019132/

       
    [Avila00]

    Eduardo Rene Rodríguez Ávila (2000). ARQUITECTURA DE COMPUTADORAS.
    http://spin.com.mx/~eravila/computer.html

       
    [Desc_a]

    Historia de los ordenadores.
    http://www.civila.com/universidades/webnntt/bloque%201/historia.htm

       
    [Alvarez98]

    Irma G. Álvarez (1998). HISTORIA DE LAS COMPUTADORAS.
    http://coqui.lce.org/ialvarez/HISTO.HTM

       
    [Salcedo98]

    Eduardo Salcedo (1998). Lengua.
    http://w3.mor.itesm.mx/~lssalced/lengua.html

       
    [Infso00]

    Página de Informatica y Sociedad (2000). Informática y Sociedad.
    http://lorca.act.uji.es/e08/documentacion.html