Want to make creations as awesome as this one?

More creations to inspire you

ONE MINUTE ON THE INTERNET

Horizontal infographics

SITTING BULL

Horizontal infographics

RUGBY WORLD CUP 2019

Horizontal infographics

GRETA THUNBERG

Horizontal infographics

FIRE FIGHTER

Horizontal infographics

VIOLA DAVIS

Horizontal infographics

Transcript

2000

1990

1980

1970

1960

1950

1940

1930

19302000

EVOLUCION DE LAS COMPUTADRAS

Línea cronológica computadoras

1930

Primera computadora digital creada en Estados Unidos, primera computadora programable de propósito general creada en Alemania. • En 1939, un joven ingeniero alemán llamado Konrad Zuse completó la primera computadora digital programable de propósito general. «Era tan vago a la hora de realizar cálculos que inventé la computadora», dijo Zuse. En 1941, Zuse y un amigo solicitaron al gobierno alemán fondos para construir una computadora electrónica más rápida que ayudara a descifrar los códigos enemigos durante la Segunda Guerra Mundial. El ejército nazi desechó el proyecto confiando en que su aviación sería capaz de ganar la guerra rápidamente sin la ayuda de sofisticados dispositivos de cálculo

Alemania

COMPUTADORAS PROGRAMABLES

1990

Microsoft crea Windows, aparecen las computadoras de bolsillo, las computadoras se convierten en máquinas multimedia, se presenta la World Wide Web, Estados Unidos completa el sistema GPS, la burbuja de las «punto com» es seguida por su explosión, aparece el sistema operativo de código abierto Linux, el iMac de Apple anuncia la era de la innovación en el diseño de los PC, se presenta el primer largometraje de dibujos animados creado por computadora, el correo electrónico deja anticuado al correo convencional, un programa reta al campeón mundial de ajedrez, el efecto del «Año 2000» atrae la atención del público y genera costes millonarios a las empresas.

el impacto del efecto Y2K

Internet

1960

Se inventa el láser, DEC presenta la primera minicomputadora, Doug Engelbart patenta el ratón, primera computadora para la persecución del crimen, por primera vez el software se vende de forma separada del hardware, se crea ARPANET, los laboratorios Bell desarrollan UNIX, primera persona en la LunaPero el programa espacial americano precisaba de máquinas que fueran aun más potentes y pequeñas que las basadas en transistores, lo que obligó a los investigadores a desarrollar una tecnología que les permitiera empaquetar cientos de estos transistores en un único circuito integrado dentro un delgado chip de silicio. Hacia mediados de los 60, las computadoras basadas en transistores fueron sustituidas por otras más pequeñas y potentes construidas alrededor de los nuevos circuitos integrados. El implacable progreso de esta industria está mostrado en la ley de Moore. En 1965, Gordon Moore, el presidente del fabricante de chips Intel, predijo que la potencia de un chip de silicio del mismo precio podría doblarse cada 18 meses durante al menos dos décadas.

ley de moore

Circuito integrado

1970

Se desarrolla la primera ROM, se crea la primera computadora doméstica para juegos, se envía el primer correo electrónico, se crea la primera microcomputadora, se presenta la supercomputadora Cray-1, Xerox abre camino en la interfaz gráfica de usuario, se presenta Apple II, se crea la primera hoja de cálculo, aparece Pac-Man.La invención del primer microprocesador en 1971 el componente crítico de una computadora doméstica completa contenido en un delgado chip de silicio. El desarrollo del microprocesador por parte de los ingenieros de Intel provocó cambios radicales e inmediatos en el aspecto, potencia y disponibilidad de las computadoras. Actualmente, un sólo chip del tamaño de una uña puede contener el equivalente a millones de transistores.

interfaz grafica

Microprocedador

1950

Se inicia la banca computerizada, IBM crea la primera computadora comercial, Sony presenta la primera radio transistor, los laboratorios Bell construyen la primera computadora transistorizada, la Unión Soviética lanza el Sputnik, el ejército norteamericano crea ARPA, se crea el circuito integradoLos transistores fueron usados por primera vez en computadoras en 1956. Dichas computadoras eran radicalmente más pequeñas, fiables y baratas que las basadas en válvulas. Gracias a las mejoras en el software que se produjeron casi al mismo tiempo, estas máquinas eran también mucho más sencillas y rápidas de programar y usar. Como resultado, las computadoras se empezaron a utilizar ampliamente en empresas y para estudios científicos y de ingeniería.

transistores

IBM crea la primera computadora comercial

1980

Se lanza el IBM PC y el Macintosh de Apple, surge la autoedición, se finaliza la instalación del primer cable trasatlántico de fibra óptica, el primer gusano de Internet infecta miles de computadoras, HyperCard de Apple abre el camino del software multimedia

pc

Computadoras personales

1940

La computadora Colossus de Turing descifra los códigos del ejercito nazi, la Mark 1 es completada, se diseña la ENIACEl gobierno británico formó un equipo de matemáticos e ingenieros para que desarrollaran un modo de descifrar los códigos secretos del ejercito nazi. En 1943, el equipo, dirigido por el matemático Alan Turing, completó Colossus, considerada por muchos como la primera computadora digital electrónica. Este dispositivo de propósito especifico logró descifrar fácilmente esos códigos militares, lo que permitió a la inteligencia militar británica «escuchar» hasta el más insignificante mensaje alemán.

alan turing

La primera computadora

2000

Los ataques por denegación de servicio anulan los sitios web comerciales, Arizona promueve las primeras elecciones primarias por Internet, los virus del correo electrónico afectan a millones de usuarios, Microsoft es encontrada culpable de pácticas monopolísticas pero consigue llegar a un acuerdo con el gobierno de Estados Unidos, los ingresos del videojuego U.S. eclipsan a los ingresos por taquilla de la película, los ataques terroristas del 11-S provocan un repunte de la seguridad y un compromiso de las libertades civiles, el armamento de alta tecnología del ejercito norteamericano derriba las defensas iraquíes, el intercambio de música a través de Internet pone en jaque a la industria discográfica.

Contextualiza tu tema con un subtítulo

Aquí puedes poner un título destacado

FUTURO

El término “IA cuántica” hace referencia al uso de ordenadores cuánticos para los procesos de los algoritmos de aprendizaje automático. El objetivo es aprovechar la superioridad de procesamiento de la computación cuántica para obtener resultados inalcanzables con tecnologías informáticas clásicas. A continuación exponemos algunas de las aplicaciones de esta supercombinación de computación cuántica e IA

la nueva era

Computación cuántica en la IA

BIBLOGRAFIA

Beekman, G. (2005). Introducción a la informática. Pearson Educación SA.DBanafa, A. (2021, 15 marzo). Computación Cuántica e IA: combinación transformacional | OpenMind. OpenMind. https://www.bbvaopenmind.com/tecnologia/mundo-digital/computacion-cuantica-e-ia/

ASIGNATURA: Fundamentos de InformáticaPROFESOR: Pablo Israel Guzmán MartínezHECHO POR: Victor Miguel Salazar SalinasFECHA:02/09/24