Want to create interactive content? It’s easy in Genially!

Get started free

HISTORIA DE LA ARQUITECTURA DE COMPUTADORAS

Omar Mariscal

Created on October 25, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Timeline video

Images Timeline Mobile

Sport Vibrant Timeline

Decades Infographic

Comparative Timeline

Square Timeline Diagram

Timeline Diagram

Transcript

HISTORIA DE LA ARQUITECTURA DE COMPUTADORAS

1947

1837

1936

1945

1946

1958

INVENCIÓN DEL CIRCUITO INTEGRADO

INVENCIÓN DEL TRANSISTOR

COMPUTADORA ENIAC

el modelo von neumann

LA MÁQUINA DE TURING

LA MÁQUINA ANALÍTICA

Alan Turing propone el experimento mental de la "Máquina de Turing"

Desarrollaron enfoques para integrar múltiples dispositivos en un solo chip

Se hace público el primer ordenador electrónico de propósito general

Se diseñó la primera computadora mecánica de propósito general.

Sustitución gradual de las válvulas de vacío por transistor

“First Draft” de von Neumann y el modelo de computadora

HISTORIA DE LA ARQUITECTURA DE COMPUTADORAS

2000

1964

1967

1971

1980

2003

PROCESADORES MULTINÚCLEO

TOMASULO Y EJECUCIÓN DINÁMICA

IBM SYSTEM Y ESTANDAR DEL BYTE

LA ARQUITECTURA 64 BITS

RISC

EL MICROPROCESADOR

La arquitectura AMD64 (o x86-64), introducida por AMD, rompió la limitación RAM de los sistemas de 32 bits.

la filosofía RISC popilarozó un conjunto de instrucciones más simple y estandarizado.

Primer y gran paso a una arquitectura compatible entre diferentes dispotivios

Por primera vez, todos los componentes de una (CPU) se fabricaron en un único chip

Integración de múltiples núcleos de procesamiento en un único chip.

Tomasulo diseñó un algoritmo que permitía ejecución fuera de orden

HISTORIA DE LA ARQUITECTURA DE COMPUTADORAS

2006

2015

2015

ISA ABIERTA Y NUEVAS DIRECCIONES

Aceleradores especializados

GPU COMO ACELERADOR CENTRAL

FUTURO DE LA ARQUITECTURA DE COMPUTADORAS

Se descubrió que la arquitectura de las GPU eran ideales para tareas científicas y de inteligencia artificial

Contextualize your topic with a subtitle

Aparición de ASICs/accelerators para IA

LOS PRÓXIMOS AVANCES Y EL FUTURO DE LA ARQUITECTURA DE COMPUTADORAS

Computación Óptica y Fotónica

Arquitecturas para Inteligencia Artificial General (AGI)

Arquitecturas Heterogéneas y Chiplets Modulares

Computación Neuromórfica

cOMPUTACIÓN CUÁNTICA

1936

La Formalización de la Computabilidad: La Máquina de Turing

HITO TÉNICO

Alan Turing propone un modelo matemático abstracto, no una máquina física, que define los límites de la computación. Su "máquina universal" podía simular cualquier algoritmo. Introdujo el concepto de "estado" y una cinta de memoria infinita, formalizando lo que hoy entendemos por software y hardware. Turing Se dio cuenta de que podía diseñar una Máquina de Turing especial cuya función fuera simular a cualquier otra Máquina de Turing. La descripción de la máquina a simular (su tabla de reglas) y sus datos de entrada se escribirían en la cinta de la UTM. La UTM leería esta descripción y ejecutaría el programa como si fuera la máquina original.

IMPACTO EN LA SOCIEDAD

Nacimiento de la Teoría de la Computación: Turing definió formalmente qué es un algoritmo. Un problema es "computable" si se puede escribir un programa para una Máquina de Turing que lo resuelvaEl Software se vuelve tangible (conceptualmente): La Máquina de Turing Universal es la invención conceptual del software. Demostró que no se necesita construir una máquina nueva para cada problema.

1971

La CPU en un Chip: El Microprocesador Intel 4004

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

Dio origen a las primeras computadoras personales y microcontroladores embebidos en dispositivos industriales. El poder de cómputo comenzó a salir de los laboratorios y corporaciones para llegar a pequeñas empresas, universidades y hogares.Nació la industria de los microprocesadores, base del modelo económico tecnológico de los siguientes 50 años. El microprocesador permitió el desarrollo de dispositivos inteligentes: relojes digitales, videojuegos, electrodomésticos automatizados, lo que modernizó la cotidianeidad general: Cambió la percepción de la tecnología: ya no era un privilegio corporativo, sino una herramienta cotidiana.

El Intel 4004 fue el primer microprocesador comercial de la historia, y marcó el inicio de la cuarta generación de computadoras. Arquitectura: 4 bits, con 46 instrucciones, Frecuencia de reloj: 740 kHz. Tecnología PMOS, con aproximadamente 2,300 transistores en una sola pastilla de silicio. Podía ejecutar hasta 92,000 operaciones por segundo.

1958

Invención del circuito integrado / IC (Jack Kilby, Robert Noyce)

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

La producción en masa de circuitos integrados dio origen a una nueva economía mundial basada en semiconductores. Redujo drásticamente los costos de fabricación de computadoras y permitió su adopción generalizada.Se sentaron las bases para la informática personal y las telecomunicaciones digitales. Los circuitos integrados impulsaron el desarrollo de satélites, microcontroladores y los primeros sistemas de comunicación electrónica. En los hogares, se comenzó a percibir la tecnología como algo cotidiano: radios portátiles, televisores más confiables, y las primeras calculadoras de bolsillo.

El circuito integrado (IC) fue el siguiente salto lógico: si el transistor reemplazó al tubo, el IC reemplazó al ensamblaje manual de transistores.En lugar de fabricar y conectar miles de transistores individuales, varios componentes electrónicos se fabricaban sobre una única oblea de silicio.

1947

Invención del transistor (Bell Labs, Bardeen/Brattain/Shockley)

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

Su principio de funcionamiento era un control del flujo de corriente mediante un semiconductor (germanio o silicio), usando pequeñas corrientes de entrada.Sus tipos principales eran: transistor de punto de contacto y transistor de unión bipolar. Su impacto surgió a raíz de sus múltiples ventajas en contra de los tubos de vacío: Tamaño y peso miles de veces menores, reducción drástica en consumo y calor, fiabilidad y vida útil de años (frente a horas o días en los tubos), posibilidad de miniaturización y portabilidad.

El transistor hizo posible la miniaturización: de los enormes racks de válvulas a dispositivos compactos. redujo enormemente los costos de producción y mantenimiento de las computadoras. Introdujo la noción de computadora comercialmente viable (por ejemplo, la IBM 1401). El transistor permitió el desarrollo de radios portátiles, aparatos telefónicos más confiables y primeros sistemas de telecomunicación automatizados con un cambio social radical .Dio origen a la cultura de la electrónica personal y del consumo tecnológico masivo. Las computadoras comenzaron a entrar en oficinas y universidades, transformando la administración, la estadística y la ingeniería.

2006

El Paralelismo Masivo para IA: La GPU como Procesador de Propósito General (GPGPU)

HITOS TÉCNICOS
IIMPACTO EN LA SOCIEDAD

GPUs pasaron de ser unidades gráficas a aceleradores de propósito general; NVIDIA lanzó CUDA/SDK (2006–2007) permitiendo programar GPUs en modelos parecidos a C y explotando miles de hilos para paralelismo masivo. revolucionó aplicaciones científicas, minería de datos e IA; permitió entrenamiento y ejecución de modelos paralelos a velocidades que las CPUs no podían igualar, acelerando descubrimientos y servicios (render, ML, simulación).

El entrenamiento de las redes neuronales modernas, que son la base del Deep Learning se potencializó de una gran manera, mejorando en gran medida todas las aplicacioens de redes neuronales hizo viable el reconocimiento facial, asistentes de voz como las icónicas Siri o Alexa, algortimos de recomendación de Google Ads, Facebook, YouTube, Amazon y demás, cambiaron mucho el juego en el que el internet se hacía rentable para las empresas y la manera de interactuar con los usuarios.

1837

El Concepto de Computadora Programable: La Máquina Analítica

HITO TÉCNICO DE LA MÁQUINA ANÁLITICA

Charles Babbage diseña la primera computadora mecánica de propósito general. Su arquitectura conceptual incluía una unidad aritmético-lógica (el "molino"), una forma de memoria integrada (el "almacén") y la capacidad de leer instrucciones desde tarjetas perforadas. Esto introdujo la idea fundamental de separar la memoria de la unidad de procesamiento y de programar la máquina para distintas tareas.

IIMPACTO EN LA SOCIEDAD

Aunque no se construyó en su época, su diseño, documentado y ampliado por Ada Lovelace (quien escribió los primeros "programas" para ella), estableció el paradigma de que una máquina podía ser más que una calculadora: podía manipular símbolos según reglas, abriendo la puerta teórica a todo lo que vino después.

2003

Superando la Barrera de la Memoria: La Arquitectura de 64 bits (x86-64)

HITO TÉCNICO

Las arquitecturas de 32 bits, que habían sido el estándar durante casi dos décadas, estaban llegando al final de su vida útil. La Solución x86-64: La arquitectura x86-64, introducida por AMD (y luego adoptada por Intel), Al extender los registros de dirección a 64 bits, el límite teórico de memoria se disparó a 2^64 bytes, lo que equivale a 16 exabytes. La genialidad de su diseño fue mantener una compatibilidad nativa completa con el software de 32 bits. Esto permitió una transición increíblemente suave

IMPACTO EN LA SOCIEDAD

Nacimiento de la Computación de Escritorio de Alto Rendimiento: a arquitectura de 64 bits hizo posible que los profesionales creativos y científicos tuvieran el poder de un workstation en su escritorio, democratizando campos que antes estaban reservados a mainframes Gestión de Bases de Datos y "Big Data": Para las empresas, la capacidad de tener servidores con cientos de gigabytes o incluso terabytes de RAM fue transformadora. Permitió que enormes bases de datos se ejecutaran completamente en memoria

2000

POTENCIACIÓN DE LAS CPU'S: Procesadores Multinúcleo

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

La Multitarea se vuelve Real: La CPU saltaba tan rápidamente entre diferentes tareas que parecía que se ejecutaban a la vez, pero en realidad era secuencial. El Motor de la Nube y el Internet Moderno: El impacto más grande se produjo en los servidores que sustentan Internet

Aumentar la velocidad de reloj (frecuencia en GHz) para mejorar el rendimiento, una estrategia que había funcionado durante 30 años, se volvió insostenible. Los problemas del consumo de energía y la disipación de calor crecían de forma exponencial. La solución fue un cambio de paradigma radical: en lugar de hacer un "cerebro" más rápido, se decidió poner múltiples "cerebros" en el mismo chip.

prox.

arquitectura para inteligencia artificial y la comparación con la inteligencia humana

¿QUÉ ES Y QUÉ NOS ESPERA?

Una arquitectura para la Inteligencia Artificial General (AGI) es un marco de diseño teórico y práctico para construir un sistema que posea una inteligencia comparable a la humana. El objetivo es crear una IA que sea capaz de aprender, razonar y resolver problemas en una amplia variedad de dominios, no solo en tareas específicas y predefinidas, como lo hace la IA estrecha o específica (ANI, por sus siglas en inglés)Debido a que la AGI sigue siendo un objetivo teórico, existen diferentes enfoques y propuestas, pero la mayoría de las arquitecturas conceptuales incluyen los siguientes elementos: Motor cognitivo central. Jerarquía de memoria, Representación simbólica, Mecanismos de auto-mejora, Planificación, Modelos del mundo, Integración modular e Interfaces multimodales

1964

IBM System/360: La estandarización de la arquitectura

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

Por primera vez, una familia completa de máquinas, compartía la misma arquitectura y el mismo conjunto de instrucciones. Arquitectura: 32 bits con un conjunto de instrucciones común (ISA, Instruction Set Architecture), los programas escritos para un modelo podían ejecutarse en otro sin modificaciones. su tecnología se basaba en circuitos integrados de pequeña escala (SLT, Solid Logic Technology), un punto intermedio entre transistores discretos e integración completa. Memoria direccionamiento de 24 bits, hasta 16 MB de memoria principal. Todo bajo el sistema operativo OS/360,

Antes del System/360, cada computadora era única y sus programas no eran portables. IBM cambió esto radicalmente. Introdujo el concepto de “arquitectura compatible”, base de la interoperabilidad moderna (como x86 o ARM). Las empresas pudieron planificar a largo plazo sin preocuparse por la obsolescencia de software. Surgió la figura del administrador de sistemas, precursor del ingeniero de TI actual. Promovió el surgimiento del empleo digital y la dependencia de los sistemas informáticos para la toma de decisiones. Consolidó la imagen de la computadora como símbolo de poder organizacional y eficiencia.

prox.

la computación cuántica y la evasión de los límites físicos

¿QUÉ ES Y QUÉ NOS ESPERA?

La computación cuántica es un tipo de tecnología que usa las propiedades de la física cuántica, como la superposición y el entrelazamiento, para realizar cálculos de una manera fundamentalmente distinta a las computadoras clásicas. El objetivo principal de este campo es resolver problemas complejos que son virtualmente imposibles para las computadoras tradicionalesMientras que la computación clásica procesa la información mediante bits, que solo pueden estar en un estado (0 o 1), la computación cuántica utiliza bits cuánticos, o cúbits. Estos cúbits tienen la capacidad de existir en múltiples estados a la vez, gracias a dos principios clave: La superposición y el entrelazamiento cuántico. El principal propósito de la computación cuántica es resolver problemas que las computadoras clásicas no pueden manejar de forma eficiente, a través de la simulación de la naturaleza a nivel subatómico

1940

ISA Abierta y Nuevas Direcciones: RISC-V y la Era del SoC

HITO TÉCNICO
IIMPACTO EN LA SOCIEDAD

El último gran hito en la evolución arquitectónica es la democratización del diseño de procesadores, impulsada por la aparición de RISC-V (pronunciado “risk-five”), una arquitectura de conjunto de instrucciones abierta (ISA) desarrollada en la Universidad de California, Berkeley en 2010 y liberada en 2015. Los SoC (System-on-Chip), por su parte, integran en un solo chip CPU, GPU, controladores, aceleradores y memoria, logrando sistemas altamente compactos y energéticamente eficientes.

Se democratizó el diseño del hardware RISC-V elimina las barreras económicas que limitaban la innovación a grandes corporaciones. Universidades, startups e incluso gobiernos pueden diseñar sus propios procesadores. Países como China, India y la Unión Europea impulsan procesadores RISC-V para reducir la dependencia de EE. UU. en materia de semiconductores. Los SoC permiten que relojes inteligentes, drones y sensores tengan gran potencia computacional con bajo consumo, facilitando la expansión del Internet de las Cosas.

1980

Aparición de las arquitecturas RISC (Reduced Instruction Set Computer)

Contextualize your topic with a subtitle

Las arquitecturas RISC ofrecieron mayor rendimiento por vatio y menor complejidad. Se convirtieron en la base de servidores de alto rendimiento, estaciones gráficas y sistemas embebidos. La eficiencia energética permitió que la computación se volviera portátil y omnipresente, comenzando con proyectos para móviles. Sentó las bases de la modularidad y escalabilidad, hoy esenciales en arquitecturas paralelas y multinúcleo. Definió el modelo energético y funcional de la era digital moderna.

A comienzos de los 80, la industria seguía la filosofía CISC (Complex Instruction Set Computer), basada en instrucciones muy complejas que ralentizaban la ejecución. Los proyectos de Berkeley y Stanford propusieron lo contrario: reducir el conjunto de instrucciones para aumentar la velocidad. Su principio eran instrucciones simples y uniformes que se ejecutan en un solo ciclo de reloj, se minimizó el acceso a memoria y se optó por una optimización del código para hardware.

1967

Tomasulo y la Ejecución Dinámica / Out-of-Order (IBM System/360 Model 91)

HITO TÉCNICO

A mediados de los años 60, la velocidad de los procesadores estaba comenzando a superar la velocidad de acceso a memoria y la eficiencia del software. El IBM System/360 Model 91, diseñado para aplicaciones científicas y de ingeniería de alto rendimiento (como cálculos aeroespaciales y simulaciones nucleares), introdujo un mecanismo de ejecución dinámica de instrucciones, conocido como el Algoritmo de Tomasulo. El algoritmo de Tomasulo se convirtió en el modelo conceptual de casi todos los procesadores de alto rendimiento posteriores: desde el Intel Pentium Pro (1995) hasta los AMD Ryzen y Apple M-series actuales.

IMPACTO EN LA SOCIEDAD

Hizo posible la simulación científica avanzada, antes limitada por tiempo y costo. Sentó las bases para el software predictivo y de modelado, como pronósticos meteorológicos, simulaciones nucleares, optimización industrial y diseño asistido por computadora (CAD). En lo social, permitió la aparición de los primeros centros de supercomputación, pilares de la investigación moderna en clima, salud y física.

prox.

computación neuromórfica y sus objetivos

¿QUÉ ES Y QUÉ NOS ESPERA?

A diferencia de la arquitectura tradicional de Von Neumann, que procesa la información de forma secuencial, la computación neuromórfica se basa en el paralelismo masivo del cerebro. Utiliza redes neuronales de picos (SNN), que imitan cómo las neuronas biológicas se comunican entre sí mediante impulsos eléctricos ("spikes"). El objetivo de esta tecnología va más allá de construir computadoras más rápidas; busca una revolución en la forma en que las máquinas procesan la información y resuelven problemas complejos Sus principales metas son: optimizar la ia creando hardware y algoritmos más eficientes, mejorar el procesamiento de datos compkejos, dexsarrollar aplicaciones de inteligencia artifical en el borde (edge computing), impulsar la neurociencia, crear sistemas adpatables y mucho mucho más.

1945

“First Draft” de von Neumann (EDVAC): formalización del modelo almacenado

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

el informe de John von Neumann (First Draft, 1945) articuló la idea de memoria que contiene instrucciones y datos (arquitectura von Neumann), así como la organización básica CPU / memoria / I/O que se convirtió en el modelo dominante.Sus componentes clave son: Una CPU (Integrada por una unidad Aritmético-Lógica (ALU) y una Unidad de Control (CU)), una unidad de Memoria Principal y Mecanismos de Entrada y Salida de Datos

Esta arquitectura no fue solo una mejora; fue la innovación que permitió que la computación pasara de ser un campo de laboratorio a una industria global. convirtió el diseño de computadores en un paradigma reproducible: facilitó la programación, el desarrollo de compiladores y sistemas operativos y la estandarización de arquitecturas. Centro a gran parte de la comunidad científica en la investigación para la aplicación de este modelo

PROX.

Arquitecturas Heterogéneas y Chiplets Modulares

¿QUÉ ES Y QUÉ SE QUIERE LOGRAR?

Qué son: Integración de múltiples tipos de núcleos (CPU, GPU, NPU, DSP) en un mismo empaquetado mediante chiplets interconectados por enlaces de alta velocidad (como Infinity Fabric o UCIe).El objetivo principal de estas tecnologías es continuar mejorando el rendimiento y la eficiencia de los procesadores, al mismo tiempo que se reducen los costos y se aumenta la flexibilidad. Las arquitecturas heterogéneas y los chiplets permiten seguir escalando la potencia y la eficiencia sin depender exclusivamente de reducir el tamaño de los transistores. Impacto esperado: PCs y servidores personalizables, escalables y eficientes; chips adaptados a aplicaciones específicas (juegos, IA, análisis científico).

2015

Aceleradores Especializados Y SU USO EN EL ENTRENAMIENTO DE LA I.A

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

Desde la década de 2010, el crecimiento exponencial de los datos y la demanda de inteligencia artificial llevaron a la arquitectura tradicional de CPU a su límite. Los procesadores de propósito general (CPU) son versátiles, pero ineficientes para tareas altamente paralelizables Esto impulsó el surgimiento de aceleradores especializados, dispositivos diseñados para realizar un tipo de cómputo de manera masivamente paralela y con bajo consumo energético.

Las GPU y TPU han permitido entrenar modelos de IA en días en lugar de meses. Sin ellas, avances como ChatGPT, AlphaGo, DALL·E o los sistemas de traducción automática serían inviables; mencionando como estas tecnologías han cambiado la manera en la que buscamos información y comandando en muchos casos tendencias sociales. En conjunto, estas arquitecturas marcan el inicio de una nueva era donde la computación se adapta a la tarea, y no al revés.

1946

ENIAC: primer ordenador electrónico de propósito general (instalado 1945, público 1946)

HITO TÉCNICO
IMPACTO EN LA SOCIEDAD

Utilizaba 7,468 tubos de vacío, 7,200 diodos, 1,500 relés, 70,000 resistencias y 10,000 condensadores, tenía una velocidad de hasta 5,000 sumas por segundo.Su memoria eran 20 acumuladores de 10 dígitos cada uno, equivalentes a registros; no poseía memoria almacenada tradicional, pesaba 30 toneladas y ocupaba más de 170 m². consumía alrededor de 150 kW de electricidad. Fue todo un hito, a pesar de que su programación era manual y estaba propensa a errores

-Nació la figura del programador (aunque al principio eran mujeres matemáticas conocidas como las ENIAC girls).-Supuso el paso simbólico de la “era mecánica” a la “era digital”. Mostró que la inteligencia humana podía ser parcialmente automatizada, abriendo el camino a la idea de máquinas pensantes. -Inspiró la creación de empresas dedicadas al desarrollo de computadoras (como UNIVAC). -Dio origen a la industria de la computación electrónica, base de lo que décadas después se convertiría en el mercado global del hardware.

prox.

computación óptica y fotónica: la luz como medio de información

¿QUÉ ES Y QUÉ NOS ESPERA?

La computación óptica y fotónica es una tecnología que utiliza luz (fotones) en lugar de electricidad (electrones) para procesar, almacenar y transmitir datos. A diferencia de los ordenadores electrónicos convencionales, que dependen del movimiento de electrones y generan calor, los sistemas fotónicos prometen una mayor velocidad y una menor pérdida de energía. Esto se logra mediante el uso de componentes ópticos, como guías de onda y moduladores, que dirigen y alteran las propiedades de la luz, como su intensidad, fase, polarización y longitud de onda, para representar datos binarios. El objetivo principal de la computación óptica y fotónica es superar las limitaciones de la computación electrónica tradicional, que se enfrenta a problemas como el sobrecalentamiento y la velocidad de transmisión de datos.