Línea del tiempo de la Computación
En esta línea del tiempo iremos viendo desarrollos importantes para la computación conforme a las décadas
Por Jaimes Pérez Israel Miguel
Comencemos
Antecedentes de la computación
Máquina de Turing (1936)
Máquina diferencial (1832)
Máquina de Leibniz (1671)
Pascalina (1642)
Siguiente
Volver
Primeros avances de la Computación
Lenguajes de alto nivel (1957)
Modelo de Von Neumann (1945)
ENIAC (1946)
Transistor (1947)
Volver
Siguiente
Preludio del internet y la miniaturización
Modelo IBM System/360 (1964)
ARPANET (1969)
Chip o CI (1959)
Microprocesador (1971)
Volver
Siguiente
Computadora personal y el internet
Protocolo TCP/IP (1983)
Interfaz gráfica de usuario (1984)
World Wide Web (1990)
IBM PC (1981)
Volver
Siguiente
Información digital y la inteligencia
Servidor y la nube (2004)
Deep Learning (2010)
Inteligencia generativa (2022)
Smartphone (2007)
Volver
Siguiente
Muchas gracias por ver
Volver
Hecho por Israel Miguel Jaimes Pérez
Máquina de Leibniz
Leibniz fue el primero en desarrollar una máquina de calcular lo que podría sumar, restar, multiplicar y dividir. También inventó el tambor utilizado para la adición numérica. Un modelo construido en madera impulso a la Royal Society de Londres a ofrecerle la calidad de miembro en el año 1673. Continuó su trabajo en una versión para cálculos con 12-dígitos y más tarde en una versión de 16-dígitos. Desde 1880 el segundo prototipo ha residido en la Biblioteca Gottfried Wilhelm Leibniz.
Pascalina
Abuelos de la computadora moderna, inventadas por el científico y filósofo Blaise Pascal. Por medio de ruedas dentadas fue una de las primeras calculadoras mecánicas, usadas para sumas y restas. Si bien no son el inicio de la computación moderna, son un precursor de la misma
Máquina diferencial
A principios del siglo XIX, matemáticos, navegantes, ingenieros, topógrafos y banqueros dependían de tablas matemáticas impresas para realizar cálculos que requerían una precisión considerable. La elaboración de estas tablas no solo era tediosa, sino también propensa a errores por parte de quienes las compilaban. Se sabía que se producían errores tanto en la transcripción como en el cálculo, la composición tipográfica y la impresión. Fue así como Charles Babbage comenzó a crear las máquinas diferenciales durante el resto de su vida, las cuales fueron múltiples versiones.
Máquina de Turing
El último antecedente que debemos entender para conocer la computación moderna es la Máquina de Turing. La máquina de Turing es un dispositivo creado en 1936, que representa un modelo idealizado de computación capaz de almacenar/procesar información casi infinita. El sistema es una abstracción matemática que se construye de una forma bastante sencilla, pero que facilita la comprobación de una gran variedad de preguntas y/o de la complejidad. Su creación marcó un gran logro en la informática, incluso siendo considerada el inicio de la computación moderna.
Modelo de Von Neumann
Estableció el diseño conceptual de la computadora moderna, donde las instrucciones (programa) y los datos se almacenan juntos en la misma memoria. Esto permitió que las máquinas fueran reprogramadas simplemente cambiando el software, sin necesidad de reconfigurar físicamente los circuitos. Este también es un modelo que sento las bases para la computación actual en el cual es más sencillo cambiar entre programas.
ENIAC
El desarrollo de la ENIAC demostró por primera vez que se podían realizar cálculos a velocidades electrónicas (usando miles de tubos de vacío) para resolver una gran variedad de problemas, marcando el fin de las máquinas electromecánicas. Este marco el inicio de la computación electrónica digital, lo que quiere decir que su tamaño y consumo de energía fue disminuido; mientras que su fiabilidad y velocidad fue en aumento.
Transistor
El transistor fue quien reemplazó el voluminoso, frágil y consumidor de energía tubo de vacío. El transistor es un dispositivo semiconductor de estado sólido que es más pequeño, rápido, consume menos energía y es más confiable. Su invención sentó la base para la miniaturización de toda la electrónica. Los transistores regulan o controlan el flujo de corriente o tensión a nivel microscópico. Los transistores modernos constan de tres conductores eléctricos: la fuente, el drenaje y la compuerta.
Lenguajes de programación de alto nivel
La introducción de lenguajes como FORTRAN (y luego COBOL en 1959) permitió a los programadores escribir instrucciones usando palabras clave más cercanas al inglés y a las matemáticas, en lugar del complejo lenguaje de máquina. Este avance simplificó enormemente la programación y aceleró el desarrollo de software. En la actualidad aunque ya no en el mismo volumen, el lenguaje FORTRAN sigue siendo usado para simulaciones de ingeniería, predicción meteorológica y científicos.
El chip o CI
El CI (o chip) permitió colocar múltiples transistores y componentes en un solo trozo de silicio. Esto no solo hizo las computadoras más pequeñas y rápidas (se inició la Tercera Generación), sino que también las hizo drásticamente más baratas de producir. El desarrollo de los CI es la base de la Ley de Moore, que predijo la duplicación de transistores cada 1-2 años, impulsando la revolución tecnológica hasta hoy.
Modelo IBM System/360
IBM lanzó una familia de computadoras compatibles, el System/360. Esto significó que el mismo software podía ejecutarse en diferentes modelos de hardware (desde el más pequeño hasta el mainframe más grande). Este concepto de compatibilidad y escalabilidad estandarizó la industria, simplificó la migración de datos y software, e hizo que las empresas invirtieran con confianza en la informática.
ARPANET
Esta red militar y académica es la precursora de Internet. Su avance clave fue la implementación práctica de la conmutación de paquetes, un método de enviar datos en pequeños bloques independientes a través de múltiples rutas. Esto garantizó una comunicación robusta, descentralizada y a prueba de fallos, sentando las bases tecnológicas de la conectividad digital global.
Microprocesador
El microprocesador es el cerebro de la computadora condensado en un solo CI. Este avance de la Cuarta Generación integró la Unidad Central de Procesamiento (CPU) en un único chip de bajo costo. Al abaratar drásticamente el componente central, el microprocesador abrió la puerta al desarrollo masivo de las computadoras personales (PC) y a la electrónica de consumo, moviendo la computación de los cuartos refrigerados a los escritorios.
IBM PC
IBM, al crear su Computadora Personal (PC), decidió usar componentes de terceros y publicó la documentación de su arquitectura. Este modelo abierto permitió que otras empresas fabricaran clones (los "PC compatibles"), creando un estándar industrial que impulsó el crecimiento masivo del hardware y software para computadoras personales a nivel global.
Protocolo TCP/IP
El conjunto de protocolos TCP/IP (Protocolo de Control de Transmisión/Protocolo de Internet) se convirtió en el estándar de comunicación obligatorio para ARPANET. Esta estandarización permitió que diferentes redes y computadoras (independientemente de su hardware o sistema operativo) pudieran comunicarse de manera fluida, estableciendo la base fundamental de lo que hoy conocemos como Internet.
Interfaz gráfica de usuario
Aunque fue desarrollada previamente en Xerox PARC, Apple popularizó la GUI con la Macintosh . La GUI, con sus ventanas, iconos y el uso del ratón como dispositivo principal, reemplazó las tediosas interfaces de línea de comandos, haciendo que las computadoras fueran intuitivas y accesibles para el usuario no técnico por primera vez.
World Wide Web
Tim Berners-Lee en el CERN combinó tres tecnologías: URL, HTTP (Protocolo de Transferencia de Hipertexto) y HTML (Lenguaje de Marcado de Hipertexto). La Web hizo que Internet, que era una red compleja, se convirtiera en un sistema global de documentos interconectados (hipertexto), iniciando la explosión de información y el uso público de la red.
Servidor y la nube
Iniciado por servicios como Amazon Web Services (AWS) en 2006, este avance significó el cambio de la propiedad de hardware a la renta de recursos informáticos a través de Internet (IaaS, PaaS, SaaS). Esto democratizó el acceso a la infraestructura tecnológica, permitiendo a startups y pequeñas empresas escalar al nivel de las grandes corporaciones sin enormes inversiones iniciales.
Smartphone
La introducción de dispositivos como el iPhone y, posteriormente, Android, convirtió el teléfono móvil en una plataforma de computación universal con acceso constante a Internet. Esto desplazó la computación del escritorio a la palma de la mano, creando una nueva economía de aplicaciones (apps) y haciendo de la movilidad el paradigma dominante de la interacción digital global.
Deep Learning
El desarrollo de redes neuronales profundas (Deep Learning), junto con la disponibilidad de grandes volúmenes de datos (Big Data) y potentes tarjetas gráficas (GPUs), permitió a la Inteligencia Artificial (IA) alcanzar una precisión superior a la humana en tareas clave como el reconocimiento de imágenes, la traducción y el procesamiento del lenguaje natural. Esto impulsó la IA de la academia a la integración práctica en servicios cotidianos.
Inteligencias generativas
La liberación de modelos de lenguaje grande (LLMs) como ChatGPT y modelos de generación de imágenes (DALL-E, Midjourney) demostró que las máquinas pueden crear contenido original, coherente y creativo (texto, código, imágenes) a partir de simples instrucciones humanas (prompts). Este avance es el más reciente hito que está revolucionando la productividad y el desarrollo de software, llevando la IA a la interacción cotidiana del usuario final.
Línea del tiempo de la Computación
Israel Miguel Jaimes Pérez
Created on October 31, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
SWOT Challenge: Classify Key Factors
View
Vision Board
View
Explainer Video: Keys to Effective Communication
View
Explainer Video: AI for Companies
View
Corporate CV
View
Flow Presentation
View
Discover Your AI Assistant
Explore all templates
Transcript
Línea del tiempo de la Computación
En esta línea del tiempo iremos viendo desarrollos importantes para la computación conforme a las décadas
Por Jaimes Pérez Israel Miguel
Comencemos
Antecedentes de la computación
Máquina de Turing (1936)
Máquina diferencial (1832)
Máquina de Leibniz (1671)
Pascalina (1642)
Siguiente
Volver
Primeros avances de la Computación
Lenguajes de alto nivel (1957)
Modelo de Von Neumann (1945)
ENIAC (1946)
Transistor (1947)
Volver
Siguiente
Preludio del internet y la miniaturización
Modelo IBM System/360 (1964)
ARPANET (1969)
Chip o CI (1959)
Microprocesador (1971)
Volver
Siguiente
Computadora personal y el internet
Protocolo TCP/IP (1983)
Interfaz gráfica de usuario (1984)
World Wide Web (1990)
IBM PC (1981)
Volver
Siguiente
Información digital y la inteligencia
Servidor y la nube (2004)
Deep Learning (2010)
Inteligencia generativa (2022)
Smartphone (2007)
Volver
Siguiente
Muchas gracias por ver
Volver
Hecho por Israel Miguel Jaimes Pérez
Máquina de Leibniz
Leibniz fue el primero en desarrollar una máquina de calcular lo que podría sumar, restar, multiplicar y dividir. También inventó el tambor utilizado para la adición numérica. Un modelo construido en madera impulso a la Royal Society de Londres a ofrecerle la calidad de miembro en el año 1673. Continuó su trabajo en una versión para cálculos con 12-dígitos y más tarde en una versión de 16-dígitos. Desde 1880 el segundo prototipo ha residido en la Biblioteca Gottfried Wilhelm Leibniz.
Pascalina
Abuelos de la computadora moderna, inventadas por el científico y filósofo Blaise Pascal. Por medio de ruedas dentadas fue una de las primeras calculadoras mecánicas, usadas para sumas y restas. Si bien no son el inicio de la computación moderna, son un precursor de la misma
Máquina diferencial
A principios del siglo XIX, matemáticos, navegantes, ingenieros, topógrafos y banqueros dependían de tablas matemáticas impresas para realizar cálculos que requerían una precisión considerable. La elaboración de estas tablas no solo era tediosa, sino también propensa a errores por parte de quienes las compilaban. Se sabía que se producían errores tanto en la transcripción como en el cálculo, la composición tipográfica y la impresión. Fue así como Charles Babbage comenzó a crear las máquinas diferenciales durante el resto de su vida, las cuales fueron múltiples versiones.
Máquina de Turing
El último antecedente que debemos entender para conocer la computación moderna es la Máquina de Turing. La máquina de Turing es un dispositivo creado en 1936, que representa un modelo idealizado de computación capaz de almacenar/procesar información casi infinita. El sistema es una abstracción matemática que se construye de una forma bastante sencilla, pero que facilita la comprobación de una gran variedad de preguntas y/o de la complejidad. Su creación marcó un gran logro en la informática, incluso siendo considerada el inicio de la computación moderna.
Modelo de Von Neumann
Estableció el diseño conceptual de la computadora moderna, donde las instrucciones (programa) y los datos se almacenan juntos en la misma memoria. Esto permitió que las máquinas fueran reprogramadas simplemente cambiando el software, sin necesidad de reconfigurar físicamente los circuitos. Este también es un modelo que sento las bases para la computación actual en el cual es más sencillo cambiar entre programas.
ENIAC
El desarrollo de la ENIAC demostró por primera vez que se podían realizar cálculos a velocidades electrónicas (usando miles de tubos de vacío) para resolver una gran variedad de problemas, marcando el fin de las máquinas electromecánicas. Este marco el inicio de la computación electrónica digital, lo que quiere decir que su tamaño y consumo de energía fue disminuido; mientras que su fiabilidad y velocidad fue en aumento.
Transistor
El transistor fue quien reemplazó el voluminoso, frágil y consumidor de energía tubo de vacío. El transistor es un dispositivo semiconductor de estado sólido que es más pequeño, rápido, consume menos energía y es más confiable. Su invención sentó la base para la miniaturización de toda la electrónica. Los transistores regulan o controlan el flujo de corriente o tensión a nivel microscópico. Los transistores modernos constan de tres conductores eléctricos: la fuente, el drenaje y la compuerta.
Lenguajes de programación de alto nivel
La introducción de lenguajes como FORTRAN (y luego COBOL en 1959) permitió a los programadores escribir instrucciones usando palabras clave más cercanas al inglés y a las matemáticas, en lugar del complejo lenguaje de máquina. Este avance simplificó enormemente la programación y aceleró el desarrollo de software. En la actualidad aunque ya no en el mismo volumen, el lenguaje FORTRAN sigue siendo usado para simulaciones de ingeniería, predicción meteorológica y científicos.
El chip o CI
El CI (o chip) permitió colocar múltiples transistores y componentes en un solo trozo de silicio. Esto no solo hizo las computadoras más pequeñas y rápidas (se inició la Tercera Generación), sino que también las hizo drásticamente más baratas de producir. El desarrollo de los CI es la base de la Ley de Moore, que predijo la duplicación de transistores cada 1-2 años, impulsando la revolución tecnológica hasta hoy.
Modelo IBM System/360
IBM lanzó una familia de computadoras compatibles, el System/360. Esto significó que el mismo software podía ejecutarse en diferentes modelos de hardware (desde el más pequeño hasta el mainframe más grande). Este concepto de compatibilidad y escalabilidad estandarizó la industria, simplificó la migración de datos y software, e hizo que las empresas invirtieran con confianza en la informática.
ARPANET
Esta red militar y académica es la precursora de Internet. Su avance clave fue la implementación práctica de la conmutación de paquetes, un método de enviar datos en pequeños bloques independientes a través de múltiples rutas. Esto garantizó una comunicación robusta, descentralizada y a prueba de fallos, sentando las bases tecnológicas de la conectividad digital global.
Microprocesador
El microprocesador es el cerebro de la computadora condensado en un solo CI. Este avance de la Cuarta Generación integró la Unidad Central de Procesamiento (CPU) en un único chip de bajo costo. Al abaratar drásticamente el componente central, el microprocesador abrió la puerta al desarrollo masivo de las computadoras personales (PC) y a la electrónica de consumo, moviendo la computación de los cuartos refrigerados a los escritorios.
IBM PC
IBM, al crear su Computadora Personal (PC), decidió usar componentes de terceros y publicó la documentación de su arquitectura. Este modelo abierto permitió que otras empresas fabricaran clones (los "PC compatibles"), creando un estándar industrial que impulsó el crecimiento masivo del hardware y software para computadoras personales a nivel global.
Protocolo TCP/IP
El conjunto de protocolos TCP/IP (Protocolo de Control de Transmisión/Protocolo de Internet) se convirtió en el estándar de comunicación obligatorio para ARPANET. Esta estandarización permitió que diferentes redes y computadoras (independientemente de su hardware o sistema operativo) pudieran comunicarse de manera fluida, estableciendo la base fundamental de lo que hoy conocemos como Internet.
Interfaz gráfica de usuario
Aunque fue desarrollada previamente en Xerox PARC, Apple popularizó la GUI con la Macintosh . La GUI, con sus ventanas, iconos y el uso del ratón como dispositivo principal, reemplazó las tediosas interfaces de línea de comandos, haciendo que las computadoras fueran intuitivas y accesibles para el usuario no técnico por primera vez.
World Wide Web
Tim Berners-Lee en el CERN combinó tres tecnologías: URL, HTTP (Protocolo de Transferencia de Hipertexto) y HTML (Lenguaje de Marcado de Hipertexto). La Web hizo que Internet, que era una red compleja, se convirtiera en un sistema global de documentos interconectados (hipertexto), iniciando la explosión de información y el uso público de la red.
Servidor y la nube
Iniciado por servicios como Amazon Web Services (AWS) en 2006, este avance significó el cambio de la propiedad de hardware a la renta de recursos informáticos a través de Internet (IaaS, PaaS, SaaS). Esto democratizó el acceso a la infraestructura tecnológica, permitiendo a startups y pequeñas empresas escalar al nivel de las grandes corporaciones sin enormes inversiones iniciales.
Smartphone
La introducción de dispositivos como el iPhone y, posteriormente, Android, convirtió el teléfono móvil en una plataforma de computación universal con acceso constante a Internet. Esto desplazó la computación del escritorio a la palma de la mano, creando una nueva economía de aplicaciones (apps) y haciendo de la movilidad el paradigma dominante de la interacción digital global.
Deep Learning
El desarrollo de redes neuronales profundas (Deep Learning), junto con la disponibilidad de grandes volúmenes de datos (Big Data) y potentes tarjetas gráficas (GPUs), permitió a la Inteligencia Artificial (IA) alcanzar una precisión superior a la humana en tareas clave como el reconocimiento de imágenes, la traducción y el procesamiento del lenguaje natural. Esto impulsó la IA de la academia a la integración práctica en servicios cotidianos.
Inteligencias generativas
La liberación de modelos de lenguaje grande (LLMs) como ChatGPT y modelos de generación de imágenes (DALL-E, Midjourney) demostró que las máquinas pueden crear contenido original, coherente y creativo (texto, código, imágenes) a partir de simples instrucciones humanas (prompts). Este avance es el más reciente hito que está revolucionando la productividad y el desarrollo de software, llevando la IA a la interacción cotidiana del usuario final.