Full screen
Share





SISTEMAS OPERARIVOS
victor hugo vazquez
Created on September 7, 2023
Over 30 million people create interactive content in Genially.
Check out what others have designed:
EUROPE PHYSICAL MAP
Horizontal infographics
TEN WAYS TO SAVE WATER
Horizontal infographics
GRETA THUNBERG
Horizontal infographics
FIRE FIGHTER
Horizontal infographics
DEMOCRATIC CANDIDATES NOV DEBATE
Horizontal infographics
STEVE JOBS
Horizontal infographics
ONE MINUTE ON THE INTERNET
Horizontal infographics
Transcript
+ info
+ info
Cuarta Generación (1980-Presente): Computadores personales
+ info
+ info
Segunda Generación (1955-65): Transistores y Sistemas Batch
evolución y el desarrollo de las diversas versiones de sistemas operativos
Quinta Generación (1990-Presente): Computadores Móviles
Tercera Generación (1965-1980): Circuitos Integrados y Multiprogramación
+ info
Primera Generación (1945-55): Tubos de vacío
+ info
Evolución de los sistemas operativos
El desarrollo tecnológico de los circuitos integrados llegó al nivel conocido como VLSI (Very Large Scale Integration), capaz de integrar hasta 1 millón de transistores en un chip de 1cm2, lo que permitía hasta 100000 celdas lógicas. Surgieron sistemas computacionales de uso personal denominados microcomputadores, que en principio no eran tecnológicamente muy superiores al PDP-11, pero a un precio notablemente inferior.
Hasta 1993, los dispositivos telefónicos móviles no era más que dispositivos de comunicación que usaban sistemas embebidos, dedicados, para administrar su hardware. El concepto de utilizar estos dispositivos para realizar actividades más allá de la telefonía surgió con los dispositivos conocidos como PDA (Personal Digital Assistant), entre los cuales se encuentra el Apple Newton que incluía un sistema operativo Newton OS escrito en C++, y con un pionero uso de reconocimiento de escritura manual. Poseía una API para aplicaciones desarrolladas por terceros, sin embargo, no obtuvo gran adopción. Talvez el primer dispositivo llamado un smartphone fue el IBM Simon, con una interfaz de pantalla touch (con stylus) y un sistema operativo ROM-DOS, compatible con MS-DOS y desarrollado por la empresa Datalight. Su batería de una hora de duración no le permitió competir con los nuevos dispositivos.
Usar un computador no siempre fue tan fácil. Los sistemas operativos surgieron como una necesidad para poder utilizar máquinas muy complejas en tiempos que se necesitaba personal muy especializado para poder operarlas. La evolución de los sistemas operativos estuvo, por lo tanto, muy ligada a las características y necesidades particulares de las máquinas disponibles. Resulta difícil hablar de los sistemas operativos sin referirse al mismo tiempo a la evolución del hardware, pues ambos aspectos han avanzado de la mano durante gran parte de la historia. Este artículo describe algunos hitos en la evolución del software que conocemos como sistema operativo y destaca el surgimiento de conceptos que persisten en los sistemas operativos modernos. La división de generaciones es aproximada en cuanto a años, y esta guiada principalmente por los hitos que marcaron al hardware.
Este tipo de computadores se usó principamente para cómputo científico y de ingeniería. Los programas que permitían a estos computadores procesar secuencialmente una cantidad de jobs fueron algunos de los primeros en cumplir la tarea de un sistema operativo, como FMS (FORTRAN Monitor System, básicamente un compilador de FORTRAN), y el sistema del IBM 7094, IBSYS.
La creación de los transistores en los años 1950 revolucionó la construcción de los dispositivos electrónicos reduciendo drásticamente las tasas de falla respecto al hardware construido con tubos de vacío y aumentando la velocidad de respuesta. Se empezaron a construir grandes computadores basados en transistores, conocidas como mainframes. Debido a su costo de construcción, un computador de este tipo era solamente accesible para grandes corporaciones, gobiernos y universidades. La operación de un mainframe requería la colaboración de varios actores. Un mainframe ejecuta jobs (trabajos), que consisten en el código de un programa, o una secuencia de programas. Los programas se ingresan mediante tarjetas perforadas y se escriben en lenguaje assembler. En 1953, John W. Backus, de IBM, propone una alternativa para hacer más práctica la descripción de programas en lugar de assembler y desarrolla el FORmula TRANslating system, conocido como lenguaje FORTRAN, junto con una herramienta para hacer la traducción hacia assembler llamada compilador. Este trabajo le otorgaría el Turing Award en 1977. Un programa escrito en FORTRAN sobre tarjetas perforadas es entregado como input a un lector de tarjetas. El lector de tarjetas escribe sobre una cinta que se entrega a la máquina principal, la cual ejecuta las instrucciones, proceso que podía tardar horas dependiendo de la complejidad del cómputo, y escribe el resultado sobre otra cinta de salida. La cinta de salida es leída por otro dispositivo capaz de imprimir el contenido de la cinta a un papel. En ese momento termina la ejecución del job. Notemos que durante el tiempo que un dispositivo está leyendo las tarjetas perforadas, tanto el dispositivo procesador como el dispositivo de salida no están haciendo ningún trabajo útil. Dado el costo del equipamiento era poco conveniente tener estas unidades en espera mientras se traduce una tarjeta perforada a una cinta magnética. Es por esto que se desarrollaron soluciones como el sistema de procesamiento batch, o procesamiento por lotes. En este modelo, un programador entrega sus tarjetas perforadas a un operador (otra persona) que se dedica a ingresar las tarjetas a una unidad lectora de tarjetas (IBM 1402). Cuando hay una cantidad suficiente de trabajos, el operador toma la cinta de salida y la traslada (físicamente) a un dispositivo procesador como el IBM 1401 (3 registros, word de 6-bit con codificación BCD) o el más poderoso IBM 7094 (7 registros, word de 36-bit, y espacio de direcciones de 15-bit: 32768 words). El operador carga un primer programa (algo similar a un sistema operativo) que prepara al computador para leer una serie de jobs desde la cinta. Mientras el dispositivo procesador realiza las labores de cómputo, el IBM 1402 podía seguir leyendo el siguiente conjunto de tarjetas. La salida del dispositivo procesador iba a una cinta magnética de salida. El operador nuevamente debe tomar esta cinta, llevarla a un dispositivo impresor (IBM 1403) que transfiera el contenido de la cinta magnética a papel de manera offline. Esto es, no conectado al dispositivo procesador.
En 1946, William Mauchley y J. Presper Eckert construyeron, en la Universidad de Pennsylvania uno de los primeros computadores programables de propósito general: el ENIAC (Electronic Numerical Integrator and Computer). Poseía 20000 tubos de vacío, pesaba 27 toneladas, ocupaba 167m2 y consumía 150kW de electricidad. Su dispositivo de entrada era un lector de tarjetas perforadas y su salida era un perforador de tarjetas (IBM 405). Poseía un clock de 100kHz, y utilizaba 20 registros de 10 dígitos binarios. No existía un lenguaje de programación, ni siquiera assembler, de manera que toda la computación era descrita en las tarjetas perforadas mediante código de máquina.
Posteriormente al trabajo de Babbage, el desarrollo de máquinas programables quedó relegado al ámbito de la investigación científica, sin grandes aplicaciones prácticas. Como ha ocurrido con tantos otros inventos, fue el periodo de la Segunda Guerra Mundial el que vino a reimpulsar el interés en este tipo de máquinas. Se empezaron a desarrollar las primeras máquinas electrónicas, como el Z3 de Konrad Zuse (1941), y la máquina de Atanasoff-Berry (1942). El flujo de cómputo de estas máquinas era controlado por switch electrónicos (relay), construidos mediante tubos de vacío (vacuum tube). Al estar compuestas por cientos o miles de estos tubos, no era extraño que uno o varios fallaran durante la operación. Algunas de estas máquinas eran programables, si bien no todas eran de "propósito general" ó Turing-complete. En 1944, un grupo de científicos en Bletchley Park, Inglaterra, entre los que se encontraba Alan Turing, construyó el computador Colossus, cuyo modelo más conocido, el Colossus Mark 2, utilizaba 2400 tubos de vacío. Este computador, si bien, tampoco era Turing-complete (lo que demuestra que no basta tener a Alan Turing para ser Turing-complete) ya que fue diseñado para una tarea criptográfica particular, sí era programable mediante cintas de papel. Fue importante en el proceso de decriptación del criptosistema alemán Lorenz.
En los años 1960s, los mainframes de IBM (International Business Machines Corporation), la compañía constructora de equipamiento computacional más importante de la época, requerían cada uno un software y periféricos distintos para funcionar, ya que las instrucciones no eran compatibles. Un programa hecho para un modelo debía ser reescrito ante la introducción de un nuevo modelo de hardware. La compañía decide unificar el hardware bajo una familia llamada System/360. Ésta fue la primera línea importante basada en la nueva tecnología de circuitos integrados capaz de integrar grandes cantidades de pequeños transistores, lo que proporcionaba una enorme ventaja precio/rendimiento respecto a los transistores tradicionales.