Want to create interactive content? It’s easy in Genially!

Get started free

EVOLUCIÓN DE LOS ORDENADORES

Natalia

Created on September 17, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Practical Timeline

History Timeline

Education Timeline

Timeline video mobile

Timeline Lines Mobile

Major Religions Timeline

Timeline Flipcard

Transcript

EVOLUCIÓN DE LOS ORDENADORES

1943

1953

1947

1948

1951

1941

Manchester Baby y Mark I

PRIMER SERVICIO DE TELEFONÍA

TARJETAS PERFORADAS

ENIAC

Z1

UNIVAC I

EVOLUCIÓN DE LOS ORDENADORES

1958

1955

1957

1954

1955

CIRCUITO INTEGRADO

IBM

HARWELL CADET

TRANSISTORES

TRADIC

EVOLUCIÓN DE LOS ORDENADORES

1971

1964

1969

1970

1971

1972

ORDNADORES CON CIRCUITOS INTEGRAODS

TCP/IP

ERA DEL PROCESADOR

Intel 1103 RAM

ARPANET

el correo electrónico

EVOLUCIÓN DE LOS ORDENADORES

1984

1974

1975

1981

1981

1985

MICROSOFT WINDOWS

Nace Internet

CD

MICROORDENADORES

Ethernet

PRIMEROS PC

EVOLUCIÓN DE LOS ORDENADORES

1999

1990

1992

1995

1998

2001

WIKIPEDIA

GOOGLE

JAVA

GSM

AUGE INTERNET

WORLD WIBE WEB (WWW)

EVOLUCIÓN DE LOS ORDENADORES

2007

2009

2010

2025-

IA, 5G, COMPUTACIÓN CUÁNTICA

REDES SOCIALES

IMPRESORA 3D

PRIMER IPHONE

2025-

Por su parte, la tecnología 5G representa la quinta generación de redes móviles y ofrece mejoras significativas en velocidad, latencia y capacidad de conexión simultánea. Esta infraestructura permite descargar grandes volúmenes de datos en segundos, soporta el Internet de las cosas (IoT) y habilita aplicaciones avanzadas como telemedicina, realidad aumentada, conducción autónoma e industria 4.0. El 5G consolida la base para servicios digitales inteligentes, interconectando dispositivos y personas a niveles nunca antes posibles. Finalmente, la computación cuántica introduce un paradigma completamente nuevo basado en los principios de la mecánica cuántica. Los qubits pueden representar simultáneamente 0 y 1, gracias a fenómenos como la superposición y el entrelazamiento, permitiendo resolver problemas que son intratables para los ordenadores clásicos. Su potencial es enorme en criptografía, simulación de moléculas complejas y optimización de sistemas, aunque todavía enfrenta desafíos técnicos como la estabilidad de los qubits y la corrección de errores. Grandes empresas y centros de investigación trabajan activamente en el desarrollo de prototipos funcionales y algoritmos cuánticos, anticipando una revolución en la capacidad de procesamiento de información. En conjunto, estas tres tecnologías representan la frontera de la informática moderna, marcando tendencias que transformarán la comunicación, la industria, la ciencia y la vida cotidiana en las próximas décadas.

IA, red 5g y computación cuántica

Las tecnologías más recientes en informática están transformando radicalmente la manera en que procesamos información, nos comunicamos y desarrollamos nuevas soluciones. Entre ellas destacan la Inteligencia Artificial (IA), la red 5G y la computación cuántica, cada una con un impacto profundo en distintos ámbitos de la sociedad. La Inteligencia Artificial es una disciplina de la informática que busca crear sistemas capaces de realizar tareas que requieren inteligencia humana, como reconocer patrones, tomar decisiones o procesar lenguaje natural. Su evolución se ha acelerado gracias al aprendizaje automático y las redes neuronales profundas, que permiten a los sistemas aprender de grandes volúmenes de datos sin intervención directa. Hoy, la IA se aplica en medicina, industria, seguridad, conducción autónoma y asistentes virtuales, planteando tanto oportunidades de innovación como desafíos éticos relacionados con privacidad, empleo y autonomía de los sistemas.

1971

el correo electrónico

El correo electrónico, conocido también como e-mail, constituye uno de los servicios de comunicación más antiguos y esenciales en el desarrollo de Internet. Su funcionamiento se basa en un sistema de almacenamiento y reenvío (store-and-forward), en el que los servidores intermedios guardan los mensajes hasta que pueden ser entregados a su destinatario, lo que permite que el emisor y el receptor no tengan que estar conectados al mismo tiempo. El origen del correo electrónico moderno se sitúa en 1971, cuando Ray Tomlinson implementó un sistema de mensajería en ARPANET que introdujo el uso del símbolo @ para separar el nombre del usuario y el del servidor de destino. Esta convención se transformó en un estándar universal y definió la estructura de las direcciones electrónicas. A lo largo de los años, el correo electrónico evolucionó con la incorporación de protocolos como SMTP para el envío de mensajes, y POP3 o IMAP para la recuperación de correos desde servidores. Estos protocolos, aún vigentes, consolidaron al correo electrónico como una herramienta de comunicación imprescindible tanto en el ámbito profesional como personal.

1972

TCPP/IP

El conjunto de protocolos TCP/IP constituye la base técnica sobre la cual se construye Internet. El Transmission Control Protocol (TCP) garantiza la transmisión confiable de datos entre dispositivos, asegurando que los paquetes lleguen completos y en el orden correcto. Por su parte, el Internet Protocol (IP) se encarga de la identificación de los equipos mediante direcciones únicas y del encaminamiento de los paquetes a través de la red. Su origen se remonta a los trabajos de Vint Cerf y Bob Kahn, quienes en 1974 propusieron un protocolo de interconexión que más tarde se dividiría en TCP e IP. El hito más importante en su consolidación ocurrió el 1 de enero de 1983, fecha en que ARPANET, la red precursora de Internet, migró de su protocolo anterior (NCP) al modelo TCP/IP. Desde entonces, TCP/IP se convirtió en el estándar universal de comunicación entre redes heterogéneas, gracias a su flexibilidad y capacidad de adaptación a distintos tipos de hardware y medios de transmisión. Sin este avance, el crecimiento global de Internet no habría sido posible.

1999

auge internet

El auge de Internet se produjo a mediados y finales de los años 90, cuando el acceso a la red dejó de estar limitado a instituciones académicas y gubernamentales, y comenzó a llegar a los hogares y empresas de todo el mundo. Este crecimiento estuvo impulsado por tres factores clave: la popularización de la World Wide Web, la expansión de los ordenadores personales y la reducción en los costes de conexión mediante módems y proveedores de Internet. Durante esta etapa surgieron los primeros portales web, servicios de correo electrónico gratuitos, foros, chats y tiendas en línea, lo que atrajo a millones de nuevos usuarios. A mediados de los 2000, el ancho de banda de banda ancha sustituyó al acceso telefónico, haciendo posible experiencias mucho más rápidas y dinámicas. El auge de Internet transformó la economía global, con el nacimiento de empresas digitales y el fenómeno de la burbuja de las puntocom a finales de los 90. Más allá de lo económico, también modificó la cultura, la comunicación y el entretenimiento, sentando las bases de la sociedad hiperconectada actual.

Play

1957

IBM

INTERNATIONAL BUSSINES MACHINES

International Business Machines Corporation (IBM) (NYSE: IBM) es una empresa tecnológica multinacional estadounidense con sede en Armonk, Nueva York. IBM fabrica y comercializa hardware y software para computadoras, y ofrece servicios de infraestructura, alojamiento de Internet, y consultoría en una amplia gama de áreas relacionadas con la informática, desde computadoras centrales hasta nanotecnología.

Líder desde 1914 hasta 1956

En 1957, IBM desarrolló el primer sistema de almacenamiento informático basado en un disco duro, llamado el IBM 305 RAMAC, y creó el lenguaje de programación científico FORTRAN (FORmula TRANslation). El RAMAC ATOGA es el predecesor de los discos duros actuales y estaba formado internamente por cincuenta discos. En 1959, los transistores empezaron a sustituir a las válvulas de vacío. Uno de los primeros computadores de IBM basados en transistores fue el IBM 7090. Antes de esa época, los computadores se utilizaron principalmente en centros de investigación y del gobierno, y no fueron utilizados regularmente por empresas.

1998

google

Google fue fundado en 1998 por Larry Page y Sergey Brin, dos estudiantes de la Universidad de Stanford, con el objetivo de organizar la información disponible en la web de una manera más eficiente que los buscadores de la época. Su innovación principal fue el algoritmo PageRank, que clasificaba los resultados según la relevancia de las páginas y sus enlaces entrantes. El motor de búsqueda rápidamente superó a sus competidores por su rapidez, precisión y simplicidad. En pocos años, Google pasó de ser un buscador universitario a convertirse en la puerta de entrada a Internet para millones de usuarios en todo el mundo. A lo largo de su historia, la empresa se expandió más allá del buscador, desarrollando productos como Gmail, Google Maps, Google Drive y Android, además de liderar proyectos en inteligencia artificial y computación en la nube. El impacto de Google ha sido tan profundo que ha cambiado la manera en que las personas acceden al conocimiento y se comunican, consolidándose como uno de los gigantes tecnológicos del siglo XXI.

2001

wikipedia

Wikipedia es una enciclopedia en línea de acceso libre y colaborativo fundada en 2001 por Jimmy Wales y Larry Sanger. Su característica principal es que cualquier persona con acceso a Internet puede crear o editar artículos, lo que la diferencia de las enciclopedias tradicionales. Desde su lanzamiento, Wikipedia creció de manera exponencial. En su primer año ya contaba con más de 20.000 artículos en varios idiomas, y actualmente alberga millones de entradas en cientos de lenguas, convirtiéndose en una de las fuentes de información más consultadas del mundo. El proyecto se sustenta en el software MediaWiki y en una comunidad global de voluntarios que mantienen y revisan los contenidos. Aunque ha sido objeto de críticas por posibles errores o vandalismo, múltiples estudios han demostrado que su fiabilidad es comparable a la de enciclopedias impresas tradicionales. Wikipedia no solo representa un hito en la democratización del conocimiento, sino que también simboliza el potencial de la colaboración en línea para construir recursos de valor colectivo.

Play

1969

Arpanet

ARPANET son las siglas de Advanced Research Projects Agency Network, es decir, la Red de la Agencia de Proyectos de Investigación Avanzada,​ organismo conocido ahora como Agencia de Proyectos de Investigación Avanzados de Defensa.

El concepto de una red de ordenadores capaz de comunicar usuarios en distintas computadoras lo formuló en abril de 1963 Joseph C. R. Licklider, de Bolt, Beranek y Newman (BBN), en una serie de notas que discutían la idea de «red galáctica». En octubre del mismo año, Licklider fue convocado por la ARPA (Agencia de Investigación de Proyectos Avanzados), organismo perteneciente al DOD. En este foro, convenció a Ivan Sutherland y Robert «Bob» Taylor de la importancia del concepto antes de abandonar la Agencia y antes de que se iniciara trabajo alguno. Mientras tanto, en la RAND Corporation desde 1958, Paul Baran estaba trabajando en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares. La red estaría capacitada para responder ante sus propios fallos. El resumen final de este esquema se presentó en 1962 y se publicó en 1964.

2007

Play

primer iphone

El primer iPhone fue presentado por Apple en enero de 2007, bajo la dirección de Steve Jobs. Este dispositivo combinaba tres funciones en un solo aparato: teléfono móvil, reproductor de música y navegador de Internet. Su pantalla táctil capacitiva, que eliminaba la necesidad de teclados físicos o punteros, marcó un antes y un después en la industria de la telefonía móvil. El iPhone ofrecía una interfaz basada en gestos intuitivos como deslizar y pellizcar para ampliar, lo que lo hizo mucho más accesible al usuario promedio. En 2008, Apple lanzó la App Store, que permitió a desarrolladores externos crear aplicaciones, creando así un ecosistema que revolucionó la forma en que las personas interactúan con sus dispositivos móviles. El impacto del iPhone fue inmediato y profundo: transformó el mercado de la telefonía, impulsó el auge de los smartphones y dio origen a una nueva economía digital basada en aplicaciones móviles. Desde entonces, la línea de iPhone ha evolucionado constantemente, pero su primera versión sigue siendo considerada un hito tecnológico clave en la historia reciente.

2009

impresora 3d

La impresora 3D es un dispositivo capaz de fabricar objetos tridimensionales mediante un proceso aditivo, en el que se depositan capas sucesivas de material hasta formar la pieza final. Este concepto, conocido como fabricación aditiva, surge en la década de 1980 con el desarrollo de tecnologías como estereolitografía (SLA) y fusión por deposición (FDM). Las impresoras 3D han transformado sectores como la ingeniería, la medicina, la arquitectura y la industria manufacturera. Permiten crear prototipos rápidamente, fabricar piezas personalizadas y reducir el desperdicio de materiales. Por ejemplo, en medicina se utilizan para producir modelos anatómicos y prótesis adaptadas a cada paciente, mientras que en la industria aeroespacial se imprimen componentes complejos que serían imposibles de fabricar mediante métodos tradicionales. La popularización de impresoras 3D domésticas ha permitido a aficionados y emprendedores experimentar con la creación de objetos propios, marcando el inicio de una era de producción descentralizada y accesible a pequeña escala.

TRANSISTORES

1955

El físico austro-húngaro Julius Edgar Lilienfeld solicitó en Canadá en el año 1925​ una patente para lo que él denominó «un método y un aparato para controlar corrientes eléctricas» y que se considera el antecesor de los actuales transistores de efecto campo, ya que estaba destinado a ser un reemplazo de estado sólido del triodo. Lilienfeld también solicitó patentes en los Estados Unidos en los años 1926​ y 1928. Sin embargo, Lilienfeld no publicó ningún artículo de investigación sobre sus dispositivos, ni sus patentes citan algún ejemplo específico de un prototipo de trabajo. Debido a que la producción de materiales semiconductores de alta calidad no estaba disponible por entonces, las ideas de Lilienfeld sobre amplificadores de estado sólido no encontraron un uso práctico en los años 1920 y 1930, aunque acabara de construir un dispositivo de este tipo.​ En 1934, el inventor alemán Oskar Heil patentó en Alemania y Gran Bretaña un dispositivo similar. Cuatro años después, los también alemanes Robert Pohl y Rudolf Hilsch efectuaron experimentos en la Universidad de Göttingen, con cristales de bromuro de potasio, usando tres electrodos, con los cuales lograron la amplificación de señales de 1 Hz, pero sus investigaciones no condujeron a usos prácticos. Mientras tanto, la experimentación en los Laboratorios Bell con rectificadores a base de óxido de cobre y las explicaciones sobre rectificadores a base de semiconductores por parte del alemán Walter Schottky y del inglés Nevill Mott, llevaron a pensar en 1938 a William Shockley que era posible lograr la construcción de amplificadores a base de semiconductores, en lugar de tubos de vacío.

Un transistor es un componente semiconductor, generalmente con al menos tres terminales que se conectan a un circuito electrónico, que restringe o permite el flujo de corriente eléctrica entre dos contactos según la presencia o ausencia de corriente en un tercer contacto. El término transistor proviene del acrónimo transfer resistor (en español resistor de transferencia). Se pueden usar como amplificadores de corriente, ya que una pequeña corriente recibida a través de su terminal de control permiten la circulación de una intensidad muy grande (proporcional a aquella hasta un máximo) entre sus dos terminales de salida. También se pueden usar como conmutador de corriente, ya que si su terminal de control no recibe ninguna intensidad de corriente, por entre los dos terminales de salida no fluye ninguna corriente tampoco (circuito abierto).​. También se puede configurar como oscilador o rectificador.

1954

TRADIC

Transistorized DIgital Computer

El TRADIC en inglés: Transistorized DIgital Computer or TRansistorized Airborne DIgital Computer fue el primer ordenador de la 2.ª generación de computadores elaborado en los Laboratorios Bell. Se fabricó en el año 1955 y se creó la primera unidad para la venta en 1958. Estaba hecho de transistores de memoria de núcleo de ferrita. Documentos desclasificados de la CIA nombran a TRADIC como el primer computador transistorizado y operacional en 1954. TRADIC tenía entre 700 y 800 transistores y 10 000 diodos. Era capaz de ejecutar alrededor de un millón de operaciones lógicas por segundo. Para ese momento no llegaba a ser tan rápida como la Primera generación de computadoras (computadoras de tubo de vacío) pero se acercaba mucho a la velocidad de estos. Los datos para estos ordenadores eran suministrados por medio de cintas magnéticas y se utilizaba lenguajes simbólicos, tipo FORTRAN y COBOL. Lo mejor de todo era que requería menos de 100 W para funcionar lo cual era mucho más rentable que las computadoras de tubo de vacío.

1951

Play

UNIVAC I

UNIVersal Automatic Computer I, Computadora Automática Universal I

La UNIVAC fue la primera computadora comercial fabricada en Estados Unidos, entregada el 31 de marzo de 1951 a la oficina del censo. Fue diseñada principalmente por J. Presper Eckert y John William Mauchly, autores de la primera computadora electrónica estadounidense, la ENIAC. Durante los años previos a la aparición de sus sucesoras, la máquina fue simplemente conocida como «UNIVAC». Se donó finalmente a la universidad de Harvard y Pensilvania.

Además de ser la primera computadora comercial estadounidense, el UNIVAC I fue la primera computadora diseñada para uso en administración y negocios (es decir, para la ejecución rápida de grandes cantidades de operaciones aritméticas relativamente simples y transporte de datos, a diferencia de los cálculos numéricos complejos requeridos por las computadoras científicas). UNIVAC competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM

2010

redes sociales

Las redes sociales son plataformas digitales diseñadas para facilitar la interacción y comunicación entre usuarios mediante el intercambio de contenido, mensajes y opiniones. Su origen se remonta a los años 90 con sitios como SixDegrees.com, pero la expansión masiva ocurrió con el lanzamiento de Facebook (2004), Twitter (2006) y otras plataformas que integraron funciones de publicación, comentarios y mensajería instantánea. Estas herramientas transformaron la manera en que las personas se relacionan, informan y consumen contenido. Las redes sociales permiten mantener relaciones personales a distancia, compartir experiencias en tiempo real y difundir información a escala global. También han generado cambios significativos en el marketing, la política y la economía, al facilitar la comunicación directa entre marcas y consumidores, y la difusión masiva de ideas y tendencias. A pesar de sus ventajas, las redes sociales también han generado debates sobre privacidad, adicción digital y desinformación, lo que refleja su profundo impacto en la sociedad contemporánea.

Play

1981

internet

El nacimiento de Internet se remonta a finales de la década de 1960 con la creación de ARPANET, una red financiada por la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (ARPA). ARPANET utilizaba la técnica de conmutación de paquetes, lo que permitía dividir los datos en fragmentos que podían viajar de manera independiente a través de diferentes rutas hasta llegar al destino, donde eran reensamblados. Durante los años 70, ARPANET se consolidó como un laboratorio de experimentación en el que se probaron nuevos protocolos de comunicación. El hito fundamental tuvo lugar el 1 de enero de 1983, cuando la red adoptó de forma oficial el conjunto de protocolos TCP/IP, sustituyendo al anterior NCP. Este cambio permitió la interconexión de distintas redes, dando origen al concepto de internetworking. A partir de ese momento, múltiples redes académicas y gubernamentales se fueron uniendo a este sistema común. En 1990, ARPANET fue oficialmente desmantelada, pero su legado ya había sentado las bases de lo que hoy conocemos como Internet, una red global de redes.

1971

era dEl procesador

La cuarta generación de computadores comienza justo con la invención del microprocesador. El microprocesador es la unidad de procesamiento más importante, el "cerebro" de un ordenador. Es el encargado de ejecutar todos los programas, desde el sistema operativo hasta las aplicaciones de usuario; solo ejecuta instrucciones en lenguaje máquina, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir y las operaciones bitwise, también las lógicas binarias y accesos a memoria. El El m

El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor, fabricado de algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador.

1995

java

Java es un lenguaje de programación y una plataforma informática desarrollada por Sun Microsystems en 1995. Fue diseñado bajo el principio de “escribir una vez, ejecutar en cualquier lugar”, lo que significa que los programas creados en Java pueden ejecutarse en diferentes dispositivos y sistemas operativos gracias a la Máquina Virtual de Java (JVM). A diferencia de lenguajes más dependientes del hardware, Java permitió el desarrollo de aplicaciones multiplataforma, lo que resultó especialmente útil en el auge de Internet de finales de los años 90. Uno de sus usos más notables fue en los applets de Java, pequeños programas que se ejecutaban dentro de los navegadores web, así como en aplicaciones empresariales y sistemas embebidos. Con el tiempo, Java se consolidó como un lenguaje versátil, presente en servidores, software empresarial, aplicaciones móviles (particularmente en Android) y sistemas de gran escala. Su diseño orientado a objetos, junto con una amplia biblioteca estándar, lo convirtieron en una de las herramientas más influyentes de la programación moderna.

1943

ENIAC

Electronic Numerical Integrator And Computer

ENIAC Fue inicialmente diseñada para calcular tablas de tiro de artillería destinadas al Laboratorio de Investigación Balística del Ejército de los Estados Unidos.Estas tablas consistían en calcular el ángulo de inclinación, la relación entre el alcance de una arma y el tipo de proyectil usado, la carga del propulsor y en algunos casos las condiciones meteorológicas que influían en el uso de artillería. Al avanzar la innovación armamentística y el desarrollo de nuevas armas requería nuevas tablas, lo que ocupaba la resolución de una serie de ecuaciones diferenciales.

En general, se la ha considerado como la primera computadora de propósito general, aunque este título pertenece en realidad a la computadora alemana Z1. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Su primer puesta en marcha fue el 10 de diciembre de 1945 y se presentó al público el 14 de febrero de 1946.

1984

primeros pc

Personal Computer

Los primeros ordenadores personales (PC) marcaron un antes y un después en la historia de la informática, al democratizar el acceso a la tecnología. A diferencia de los grandes sistemas utilizados por empresas y centros de investigación, los PC fueron diseñados para ser utilizados por particulares y pequeñas organizaciones. El verdadero punto de partida se encuentra en 1981 con el lanzamiento de la IBM PC 5150, que definió una arquitectura abierta en la que terceros podían fabricar componentes compatibles. Esto impulsó un ecosistema de hardware y software en constante expansión, consolidando el término “PC” como sinónimo de ordenador personal. Aunque antes existían microordenadores como el Apple II o el Commodore 64, la irrupción de la IBM PC y sus sucesores transformó la informática en un producto de masas. A mediados de los años 80 y 90, millones de hogares y oficinas comenzaron a incorporar ordenadores personales para tareas de ofimática, educación y entretenimiento, marcando el inicio de la era digital a gran escala.

1990

www

World Wide Web

La World Wide Web (WWW) fue creada en 1989 por Tim Berners-Lee, investigador del CERN, como un sistema de información global basado en hipertexto. La WWW se diferencia de Internet en que no es la red en sí, sino un servicio que funciona sobre ella y permite acceder a documentos enlazados mediante hipervínculos. El primer sitio web fue publicado en 1991 y explicaba precisamente qué era la World Wide Web y cómo utilizarla. Para hacerla posible, Berners-Lee desarrolló tres elementos fundamentales: el lenguaje HTML (HyperText Markup Language), el protocolo HTTP (Hypertext Transfer Protocol) y el primer navegador web, llamado WorldWideWeb. La Web se popularizó a mediados de los años 90, cuando surgieron navegadores gráficos como Mosaic y más tarde Netscape Navigator, que acercaron Internet a un público mucho más amplio. Este avance transformó radicalmente la forma de acceder a la información, de comunicarse y de realizar actividades económicas, dando inicio a la sociedad digital que conocemos hoy.

1992

gsm

Global System for Mobile Communications

El estándar GSM (Global System for Mobile Communications) fue desarrollado en Europa en la década de 1980 como una tecnología de telefonía móvil digital destinada a sustituir los sistemas analógicos. Su objetivo era ofrecer comunicaciones más seguras, eficientes y compatibles entre distintos países. El servicio comercial de GSM comenzó en 1991 en Finlandia, convirtiéndose rápidamente en el estándar dominante en Europa y, posteriormente, en gran parte del mundo. GSM introdujo la idea de las celdas, pequeñas áreas de cobertura gestionadas por estaciones base que permitían la reutilización eficiente de frecuencias. Esto dio lugar al fenómeno del roaming, es decir, la posibilidad de usar el mismo número y servicios en distintos países. Además de la voz, GSM incorporó servicios de mensajería de texto (SMS) y transmisión de datos en sus versiones posteriores, lo que supuso el inicio de la telefonía móvil moderna. Su éxito radica en haber establecido un marco global que facilitó la expansión de la comunicación móvil hasta convertirse en un elemento cotidiano en la vida de millones de personas.

1941

z1

computadora electro-mecánica

La Z1 fue la primera de una serie de computadoras que Zuse diseñó. Su nombre original fue "V1" de VersuchsModell 1 (que significa Modelo Experimental 1). Después de la Segunda Guerra Mundial, pasó a llamarse "Z1" para diferenciarse de las bombas volantes diseñadas por Robert Lusser.[5]​ La Z2 y la Z3 fueron seguimientos basados en muchas de las mismas ideas que la Z1.

La Z1 fue la primera computadora libremente programable en el mundo que usó lógica booleana y números de coma flotante binarios, sin embargo, no era fiable en la operación.[3]​[4]​ Se completó en 1938 y se financió completamente con fondos privados. Esta computadora fue destruida en el bombardeo de Berlín en diciembre de 1943, durante la Segunda Guerra Mundial, junto con todos los planos de construcción.

1955

HARWELL CADET

En febrero de 1955, en el Laboratorio Harwell del Reino Unido, entró en funcionamiento por primera vez el ordenador Harwell CADET, el primero construido utilizando exclusivamente transistores . Mientras el mundo aún se estaba recuperando de los efectos de la Segunda Guerra Mundial y la tecnología comenzaba a dar forma al futuro, surgió una computadora revolucionaria en el Reino Unido: la Harwell CADET . Desarrollado en el Atomic Energy Research Establishment (AERE) del Reino Unido, también conocido como Laboratorio Harwell , el Harwell CADET ( Transistor Electronic Digital Automatic Computer , leído al revés) fue el primer ordenador en funcionar exclusivamente con transistores en Europa (y probablemente en el mundo), abandonando las válvulas termoiónicas que dominaban la informática hasta entonces, marcando una transición crucial hacia la tecnología de estado sólido , que vendría a definir la era digital.

1985

microsoft windows

El sistema operativo Microsoft Windows supuso una revolución en la interacción con los ordenadores personales. Su primera versión, lanzada en 1985, ofrecía una interfaz gráfica basada en ventanas, iconos y menús desplegables, que facilitaba enormemente el uso del ordenador en comparación con la línea de comandos de MS-DOS. La evolución de Windows fue rápida: Windows 3.0 (1990) introdujo mejoras gráficas y mayor estabilidad, y Windows 95 (1995) integró el botón de inicio y la barra de tareas, elementos que se convertirían en símbolos del sistema. Con esta versión, además, Windows ofreció soporte integrado para el acceso a Internet mediante el protocolo TCP/IP. En las décadas siguientes, Windows continuó dominando el mercado de los sistemas operativos para PC, con versiones emblemáticas como Windows XP (2001), conocido por su estabilidad, o Windows 10 (2015), que unificó la experiencia de usuario en distintos dispositivos. Su importancia radica en haber establecido el estándar de interacción gráfica que facilitó la masificación del ordenador personal en todo el mundo.

1974

EThernet

La tecnología Ethernet es el sistema de red de área local (LAN) más utilizado en el mundo. Su diseño original, desarrollado en la década de 1970 por Robert Metcalfe y su equipo en Xerox PARC, consistía en el uso de un cable coaxial compartido por múltiples computadoras. Para evitar conflictos en la transmisión, Ethernet implementó el método CSMA/CD (Carrier Sense Multiple Access with Collision Detection), que permite a los dispositivos detectar colisiones en la red y reenviar la información después de un intervalo aleatorio. En sus primeras versiones, las computadoras se conectaban al cable coaxial mediante transceptores externos, pero con el tiempo las funciones se integraron en tarjetas de red más compactas y eficientes. Ethernet se consolidó frente a tecnologías competidoras como Token Ring, debido a su simplicidad, bajo costo y capacidad de evolucionar. Gracias a su escalabilidad, Ethernet ha pasado de velocidades iniciales de 10 Mbps a estándares modernos que alcanzan 1 Gbps, 10 Gbps e incluso más. Esta evolución lo ha convertido en la base de la mayoría de redes corporativas, domésticas y de centros de datos.

Play

1981

cd

Disco compacto

El disco compacto (CD) es un formato de almacenamiento óptico desarrollado conjuntamente por Philips y Sony. Fue introducido en Japón en 1982 y rápidamente se popularizó en todo el mundo durante la década de 1980. Inicialmente concebido para la distribución de audio digital sin compresión (CD-DA), el formato ofrecía una mayor calidad sonora y durabilidad frente a tecnologías anteriores como el casete o el vinilo. Poco después, el CD se adaptó al ámbito de la informática con la creación del CD-ROM (Compact Disc Read-Only Memory), presentado en 1985. Este formato permitió distribuir grandes cantidades de software, bases de datos y enciclopedias digitales, algo revolucionario para la época. Más tarde aparecieron los CD-R (grabables) y CD-RW (regrabables), que brindaron a los usuarios la posibilidad de crear y modificar sus propios discos. El CD se convirtió en el estándar dominante para la música y el software durante los años 90, hasta que fue desplazado progresivamente por tecnologías más avanzadas como el DVD y, posteriormente, por el almacenamiento digital en línea y el streaming.

1964

LOS PRIMEROS ORDENADORES CON CIRCUITOS INTEGRADOS

Los primeros ordenadores fabricados con circuitos integrados, como el IBM 360 maracaron el incio de la tercera generación de computadoras. Estos dispositivos utilizaban circuitos integrados para realizar operaciones aritméticas y funciones lógicas, lo que presentó un avance significativo en la tecnología de la computación. El IBM 360, lanzado el 7 de abril de 1964, fue uno de los primeros ordenadores comerciales que implementó esta tecnología, causando un gran efecto en industria informática.

1970

Intel 1103

El 1103 es un circuito integrado (IC) de memoria dinámica de acceso aleatorio (DRAM) desarrollado y fabricado por Intel. Introducido en octubre de 1970, el 1103 fue el primer IC DRAM disponible comercialmente, y debido a su pequeño tamaño físico y bajo precio en comparación con la memoria de núcleo magnético, reemplazó a esta última en muchas aplicaciones.

En 1969, William Regitz y sus compañeros de Honeywell inventaron una celda de memoria dinámica de tres transistores y comenzaron a buscar un productor en la industria de semiconductores. La recién fundada Intel Corporation respondió y desarrolló dos chips de 1024 bits muy similares, el 1102 y el 1103, bajo la dirección de Joel Karp, trabajando estrechamente con William Regitz. En última instancia, solo el 1103 entró en producción.Microsystems International se convirtió en la primera segunda fuente para el 1103 en 1971. Más tarde, National Semiconductor, Signetics y Synertek también fabricaron el 1103.

1948

Manchester Baby y Mark I

La Manchester Mark 1 fue en un principio una máquina experimental a pequeña escala llamada "The baby", construida entre 1947 y 1948 en la Universidad de Mánchester, como continuación del Manchester Small-Scale Experimental Machine (SSEM), la primera computadora electrónica del mundo con programa almacenado en la misma máquina. Su diseño se pensó para demostrar el potencial que tendrían los programas almacenados en la computadora, por eso se considera la primera computadora que funcionaba con memoria RAM.

1975

microordenadores

La aparición de los microordenadores en la década de 1970 marcó el inicio de la informática personal. A diferencia de los grandes ordenadores centrales (mainframes) y de los sistemas de minicomputadoras destinados a empresas, los microordenadores estaban pensados para un uso individual y resultaban mucho más accesibles en términos de tamaño y coste. El desarrollo del microprocesador fue clave para esta transformación, ya que permitió integrar en un solo chip las funciones que antes requerían múltiples componentes. Gracias a ello, en 1977 comenzaron a comercializarse los primeros microordenadores de éxito, como el Apple II, el Commodore PET y el TRS-80, que abrieron la puerta a la popularización de la informática en hogares, escuelas y pequeñas empresas. Durante los años 80, los microordenadores se diversificaron en modelos orientados tanto al entretenimiento (con mejores gráficos y sonido para juegos) como al trabajo (con procesadores de texto y hojas de cálculo). Este proceso sentó las bases para la llegada de los ordenadores personales (PC) tal y como los conocemos hoy.

1953

TARJETAS PERFORADAS

La tarjeta perforada o simplemente tarjeta es una lámina hecha de cartulina que contiene información en forma de perforaciones según un código binario. Estos fueron los primeros medios utilizados para ingresar información e instrucciones a una computadora en los años 1960 y 1970.

Actualmente las tarjetas perforadas han sido reemplazadas por medios magnéticos y ópticos de ingreso de información. Sin embargo, muchos de los dispositivos de almacenamiento ópticos, como por ejemplo el CD-ROM, también se basan en un método similar al usado por las tarjetas perforadas, aunque por supuesto los tamaños, velocidades de acceso y capacidad de los medios actuales no admiten comparación con los antiguos medios.

1958

Play

CIRCUITO INTEGRADO

CI

Un circuito integrado (CI), también conocido como chip o microchip, es una estructura de pequeñas dimensiones de material semiconductor, habitualmente silicio, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado plástico o de cerámica.​ El encapsulado posee conductores metálicos apropiados para hacer conexión entre el circuito integrado y un circuito impreso. Los CI se hicieron posibles gracias a descubrimientos experimentales que mostraban que artefactos semiconductores podían realizar las funciones de los tubos de vacío, así como a los avances científicos de la fabricación de semiconductores a mediados del siglo XX. La integración de grandes cantidades de pequeños transistores dentro de un pequeño espacio fue un gran avance en la elaboración manual de circuitos utilizando componentes electrónicos discretos. La capacidad de producción masiva de los circuitos integrados, así como la fiabilidad y acercamiento a la construcción de un diagrama a bloques en circuitos, aseguraba la rápida adopción de los circuitos integrados estandarizados en lugar de diseños utilizando transistores discretos.

1947

PRIMER SERVICIO DE TELEFONÍA

El primer servicio de telefonía móvil fue desarrollado por Bell Labs en 1947. En este año, los investigadores de Bell Labs proponieron una red celular que permitía a los usuarios recibir y enviar llamadas de manera inalámbrica. Este concepto fue fundamental para el desarrollo de la telefonía móvil moderna, y Bell Labs fue pionero en la instalación de la primera red celular comercial en Chicago en la década de 1970.