Want to create interactive content? It’s easy in Genially!

Get started free

Línea del tiempo de la Computación

Israel Miguel Jaimes Pérez

Created on October 31, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Interactive Hangman

Secret Code

Branching Scenario: Academic Ethics and AI Use

The Fortune Ball

Repeat the Sequence Game

Pixel Challenge

Word Search: Corporate Culture

Transcript

Línea del tiempo de la Computación

En esta línea del tiempo iremos viendo desarrollos importantes para la computación conforme a las décadas
Por Jaimes Pérez Israel Miguel
Comencemos

Antecedentes de la computación

Máquina de Turing (1936)
Máquina diferencial (1832)
Máquina de Leibniz (1671)
Pascalina (1642)

Siguiente

Volver

Primeros avances de la Computación

Lenguajes de alto nivel (1957)
Modelo de Von Neumann (1945)
ENIAC (1946)
Transistor (1947)

Volver

Siguiente

Preludio del internet y la miniaturización

Modelo IBM System/360 (1964)
ARPANET (1969)
Chip o CI (1959)
Microprocesador (1971)

Volver

Siguiente

Computadora personal y el internet

Protocolo TCP/IP (1983)
Interfaz gráfica de usuario (1984)
World Wide Web (1990)
IBM PC (1981)

Volver

Siguiente

Información digital y la inteligencia

Servidor y la nube (2004)
Deep Learning (2010)
Inteligencia generativa (2022)
Smartphone (2007)

Volver

Siguiente

Muchas gracias por ver

Volver

Hecho por Israel Miguel Jaimes Pérez
Máquina de Leibniz

Leibniz fue el primero en desarrollar una máquina de calcular lo que podría sumar, restar, multiplicar y dividir. También inventó el tambor utilizado para la adición numérica. Un modelo construido en madera impulso a la Royal Society de Londres a ofrecerle la calidad de miembro en el año 1673. Continuó su trabajo en una versión para cálculos con 12-dígitos y más tarde en una versión de 16-dígitos. Desde 1880 el segundo prototipo ha residido en la Biblioteca Gottfried Wilhelm Leibniz.

Pascalina

Abuelos de la computadora moderna, inventadas por el científico y filósofo Blaise Pascal. Por medio de ruedas dentadas fue una de las primeras calculadoras mecánicas, usadas para sumas y restas. Si bien no son el inicio de la computación moderna, son un precursor de la misma

Máquina diferencial

A principios del siglo XIX, matemáticos, navegantes, ingenieros, topógrafos y banqueros dependían de tablas matemáticas impresas para realizar cálculos que requerían una precisión considerable. La elaboración de estas tablas no solo era tediosa, sino también propensa a errores por parte de quienes las compilaban. Se sabía que se producían errores tanto en la transcripción como en el cálculo, la composición tipográfica y la impresión. Fue así como Charles Babbage comenzó a crear las máquinas diferenciales durante el resto de su vida, las cuales fueron múltiples versiones.

Máquina de Turing

El último antecedente que debemos entender para conocer la computación moderna es la Máquina de Turing. La máquina de Turing es un dispositivo creado en 1936, que representa un modelo idealizado de computación capaz de almacenar/procesar información casi infinita. El sistema es una abstracción matemática que se construye de una forma bastante sencilla, pero que facilita la comprobación de una gran variedad de preguntas y/o de la complejidad. Su creación marcó un gran logro en la informática, incluso siendo considerada el inicio de la computación moderna.

Modelo de Von Neumann

Estableció el diseño conceptual de la computadora moderna, donde las instrucciones (programa) y los datos se almacenan juntos en la misma memoria. Esto permitió que las máquinas fueran reprogramadas simplemente cambiando el software, sin necesidad de reconfigurar físicamente los circuitos. Este también es un modelo que sento las bases para la computación actual en el cual es más sencillo cambiar entre programas.

ENIAC

El desarrollo de la ENIAC demostró por primera vez que se podían realizar cálculos a velocidades electrónicas (usando miles de tubos de vacío) para resolver una gran variedad de problemas, marcando el fin de las máquinas electromecánicas. Este marco el inicio de la computación electrónica digital, lo que quiere decir que su tamaño y consumo de energía fue disminuido; mientras que su fiabilidad y velocidad fue en aumento.

Transistor

El transistor fue quien reemplazó el voluminoso, frágil y consumidor de energía tubo de vacío. El transistor es un dispositivo semiconductor de estado sólido que es más pequeño, rápido, consume menos energía y es más confiable. Su invención sentó la base para la miniaturización de toda la electrónica. Los transistores regulan o controlan el flujo de corriente o tensión a nivel microscópico. Los transistores modernos constan de tres conductores eléctricos: la fuente, el drenaje y la compuerta.

Lenguajes de programación de alto nivel

La introducción de lenguajes como FORTRAN (y luego COBOL en 1959) permitió a los programadores escribir instrucciones usando palabras clave más cercanas al inglés y a las matemáticas, en lugar del complejo lenguaje de máquina. Este avance simplificó enormemente la programación y aceleró el desarrollo de software. En la actualidad aunque ya no en el mismo volumen, el lenguaje FORTRAN sigue siendo usado para simulaciones de ingeniería, predicción meteorológica y científicos.

El chip o CI

El CI (o chip) permitió colocar múltiples transistores y componentes en un solo trozo de silicio. Esto no solo hizo las computadoras más pequeñas y rápidas (se inició la Tercera Generación), sino que también las hizo drásticamente más baratas de producir. El desarrollo de los CI es la base de la Ley de Moore, que predijo la duplicación de transistores cada 1-2 años, impulsando la revolución tecnológica hasta hoy.

Modelo IBM System/360

IBM lanzó una familia de computadoras compatibles, el System/360. Esto significó que el mismo software podía ejecutarse en diferentes modelos de hardware (desde el más pequeño hasta el mainframe más grande). Este concepto de compatibilidad y escalabilidad estandarizó la industria, simplificó la migración de datos y software, e hizo que las empresas invirtieran con confianza en la informática.

ARPANET

Esta red militar y académica es la precursora de Internet. Su avance clave fue la implementación práctica de la conmutación de paquetes, un método de enviar datos en pequeños bloques independientes a través de múltiples rutas. Esto garantizó una comunicación robusta, descentralizada y a prueba de fallos, sentando las bases tecnológicas de la conectividad digital global.

Microprocesador

El microprocesador es el cerebro de la computadora condensado en un solo CI. Este avance de la Cuarta Generación integró la Unidad Central de Procesamiento (CPU) en un único chip de bajo costo. Al abaratar drásticamente el componente central, el microprocesador abrió la puerta al desarrollo masivo de las computadoras personales (PC) y a la electrónica de consumo, moviendo la computación de los cuartos refrigerados a los escritorios.

IBM PC

IBM, al crear su Computadora Personal (PC), decidió usar componentes de terceros y publicó la documentación de su arquitectura. Este modelo abierto permitió que otras empresas fabricaran clones (los "PC compatibles"), creando un estándar industrial que impulsó el crecimiento masivo del hardware y software para computadoras personales a nivel global.

Protocolo TCP/IP

El conjunto de protocolos TCP/IP (Protocolo de Control de Transmisión/Protocolo de Internet) se convirtió en el estándar de comunicación obligatorio para ARPANET. Esta estandarización permitió que diferentes redes y computadoras (independientemente de su hardware o sistema operativo) pudieran comunicarse de manera fluida, estableciendo la base fundamental de lo que hoy conocemos como Internet.

Interfaz gráfica de usuario

Aunque fue desarrollada previamente en Xerox PARC, Apple popularizó la GUI con la Macintosh . La GUI, con sus ventanas, iconos y el uso del ratón como dispositivo principal, reemplazó las tediosas interfaces de línea de comandos, haciendo que las computadoras fueran intuitivas y accesibles para el usuario no técnico por primera vez.

World Wide Web

Tim Berners-Lee en el CERN combinó tres tecnologías: URL, HTTP (Protocolo de Transferencia de Hipertexto) y HTML (Lenguaje de Marcado de Hipertexto). La Web hizo que Internet, que era una red compleja, se convirtiera en un sistema global de documentos interconectados (hipertexto), iniciando la explosión de información y el uso público de la red.

Servidor y la nube

Iniciado por servicios como Amazon Web Services (AWS) en 2006, este avance significó el cambio de la propiedad de hardware a la renta de recursos informáticos a través de Internet (IaaS, PaaS, SaaS). Esto democratizó el acceso a la infraestructura tecnológica, permitiendo a startups y pequeñas empresas escalar al nivel de las grandes corporaciones sin enormes inversiones iniciales.

Smartphone

La introducción de dispositivos como el iPhone y, posteriormente, Android, convirtió el teléfono móvil en una plataforma de computación universal con acceso constante a Internet. Esto desplazó la computación del escritorio a la palma de la mano, creando una nueva economía de aplicaciones (apps) y haciendo de la movilidad el paradigma dominante de la interacción digital global.

Deep Learning

El desarrollo de redes neuronales profundas (Deep Learning), junto con la disponibilidad de grandes volúmenes de datos (Big Data) y potentes tarjetas gráficas (GPUs), permitió a la Inteligencia Artificial (IA) alcanzar una precisión superior a la humana en tareas clave como el reconocimiento de imágenes, la traducción y el procesamiento del lenguaje natural. Esto impulsó la IA de la academia a la integración práctica en servicios cotidianos.

Inteligencias generativas

La liberación de modelos de lenguaje grande (LLMs) como ChatGPT y modelos de generación de imágenes (DALL-E, Midjourney) demostró que las máquinas pueden crear contenido original, coherente y creativo (texto, código, imágenes) a partir de simples instrucciones humanas (prompts). Este avance es el más reciente hito que está revolucionando la productividad y el desarrollo de software, llevando la IA a la interacción cotidiana del usuario final.