Want to create interactive content? It’s easy in Genially!

Reuse this genially

technolgie Tychique Balukidi

Tychique Balukidi

Created on April 6, 2023

Start designing with a free template

Discover more than 1500 professional designs like these:

Animated Chalkboard Presentation

Genial Storytale Presentation

Higher Education Presentation

Blackboard Presentation

Psychedelic Presentation

Relaxing Presentation

Nature Presentation

Transcript

L'histoire des ordinateurs

son cycle de vie

Sommaire

Définition

Frise Chronologique

Histoire

Cycle de vie

Conclusion

Impacts

définition

Ordinateur : Machine automatique de traitement de l'information, obéissant à des programmes formés par des suites d'opérations arithmétiques et logiques.

01

Histoire

L'Histoire des ordinateurs

Métier à tisser

1801 : Joseph-Marie Jacquard, un marchand et inventeur français, invente un métier à tisser qui utilise des cartes perforées en bois (semblable à l'orguie de Barbarie) pour tisser automatiquement des motifs de tissu. La machine, baptisée Métier Jacquard est à l'origine des cartes perforées similaires que les premiers ordinateurs utiliseront.

"Difference engine"

1821 : Le mathématicien anglais Charles Babbage conçoit une machine à calculer à vapeur capable de calculer des tables de nombres. Financé par le gouvernement britannique, le projet, appelé "Difference Engine", échoue en raison du manque de technologie à l'époque, selon l'université du Minnesota.

calculatrice d'impression

1853 : L'inventeur suédois Per Georg Scheutz et son fils Edvard conçoivent la première calculatrice d'impression au monde. La machine est importante car elle est la première à "calculer des différences tabulaires et à imprimer les résultats", selon le livre d'Uta C. Merzbach, "Georg Scheutz and the First Printing Calculator" (Smithsonian Institution Press, 1977).

la machine d'Ibm

1890 : Herman Hollerith conçoit un système de cartes perforées pour aider à calculer le recensement américain de 1890. La machine permet au gouvernement d'économiser plusieurs années de calculs et au contribuable américain d'économiser environ 5 millions de dollars, selon l'université de Columbia. Hollerith crée ensuite une société qui deviendra plus tard International Business Machines Corporation (IBM).

Machine de turing

1936 : Alan Turing, un scientifique et mathématicien britannique, présente le principe d'une machine universelle, appelée plus tard machine de Turing, dans un article intitulé "On Computable Numbers...", selon le livre de Chris Bernhardt "Turing's Vision" (The MIT Press, 2017). Les machines de Turing sont capables de calculer tout ce qui est calculable. Le concept central de l'ordinateur moderne est basé sur ses idées. Turing est ensuite impliqué dans le développement de la bombe Turing-Welchman, un dispositif électromécanique conçu pour déchiffrer les codes nazis pendant la Seconde Guerre mondiale, selon le National Museum of Computing du Royaume-Uni. Un très bon film sur le sujet, The Imitation Game retrace le parcours de Turing.

Le premier ordinateur commercial

1937 : John Vincent Atanasoff, professeur de physique et de mathématiques à l'université d'État de l'Iowa, soumet une proposition de subvention pour construire le premier ordinateur exclusivement électrique. 1939 : David Packard et Bill Hewlett fondent la Hewlett Packard Company à Palo Alto, en Californie. Ils décident du nom de leur nouvelle entreprise à pile ou face, et le premier siège social de Hewlett-Packard se trouve dans le garage de Packard, selon le MIT.

1941 : L'inventeur et ingénieur allemand Konrad Zuse achève sa machine Z3, le premier ordinateur numérique au monde, selon le livre de Gerard O'Regan "A Brief History of Computing". La machine a été détruite lors d'un bombardement sur Berlin pendant la Seconde Guerre mondiale. Zuse a fui la capitale allemande après la défaite de l'Allemagne nazie et a ensuite sorti le premier ordinateur numérique commercial du monde, le Z4, en 1950, selon O'Regan.

ABC et l'eniac

1941 : Atanasoff et son étudiant diplômé, Clifford Berry, conçoivent le premier ordinateur électronique numérique aux États-Unis, appelé Atanasoff-Berry Computer (ABC). C'est la première fois qu'un ordinateur est capable de stocker des informations sur sa mémoire principale et d'effectuer une opération toutes les 15 secondes, selon le livre "Birthing the Computer" (Cambridge Scholars Publishing, 2016). 1945 : Deux professeurs de l'université de Pennsylvanie, John Mauchly et J. Presper Eckert, conçoivent et construisent l'intégrateur et calculateur numérique électronique (ENIAC). Cette machine est le premier " ordinateur numérique automatique, polyvalent, électronique et décimal ", selon l'ouvrage d'Edwin D. Reilly intitulé " Milestones in Computer Science and Information Technology " (Greenwood Press, 2003).

Edsac

1949 : Une équipe de l'université de Cambridge met au point la calculatrice électronique automatique à mémoire de retard (EDSAC), "le premier ordinateur pratique à programme enregistré", selon O'Regan. "L'EDSAC a exécuté son premier programme en mai 1949 en calculant une table de carrés et une liste de nombres premiers". En novembre 1949, des scientifiques du Council of Scientific and Industrial Research (CSIR), aujourd'hui appelé CSIRO, construisent le premier ordinateur numérique d'Australie, appelé Council for Scientific and Industrial Research Automatic Computer (CSIRAC). Le CSIRAC est le premier ordinateur numérique au monde à jouer de la musique, selon O'Regan.

1958 : Jack Kilby et Robert Noyce dévoilent le circuit intégré, connu sous le nom de puce informatique. Cela marque l'évolution de l'ordinateur, qui est passé d'une machine spécialisée pour les universitaires à une technologie plus accessible au grand public.

Un ordinateur avec la mémoire vive

1969 : Ken Thompson, Dennis Ritchie et un groupe d'autres développeurs des Bell Labs produisent UNIX, un système d'exploitation qui a rendu "pratique la mise en réseau à grande échelle de divers systèmes informatiques - et l'Internet", l'équipe à l'origine d'UNIX a continué à développer le système d'exploitation en utilisant le langage de programmation C, qu'elle a également optimisé. 1970 : La société Intel nouvellement créée dévoile l'Intel 1103, la première puce de mémoire vive dynamique (DRAM).

1971 : Une équipe d'ingénieurs d'IBM dirigée par Alan Shugart invente la "disquette", qui permet de partager des données entre différents ordinateurs.

Les ordinateurs avec les Logiciels

1973 : Robert Metcalfe, membre du personnel de recherche de Xerox, développe Ethernet pour connecter plusieurs ordinateurs et autres matériels. 1974 : Le Commodore Personal Electronic Transactor (PET), lancé sur le marché des ordinateurs domestiques, est équipé d'un microprocesseur 8 bits 6502 de MOS Technology, qui contrôle l'écran, le clavier et le lecteur de cassettes. Le PET connaît un succès particulier sur le marché de l'éducation, selon O'Regan.

De 1975 à 1977, des gens comme Bill Gates, Paul Allen créent des logiciel comme Microsoft.

Steve Jobs et Steve Wozniak dévoilent l'Apple I, le premier ordinateur doté d'une carte à circuit unique et d'une mémoire ROM (Read Only Memory), selon le MIT.

Ordinateur portable

1983 : L'Apple Lisa, qui signifie "Local Integrated Software Architecture" mais qui est aussi le nom de la fille de Steve Jobs, selon le National Museum of American History (NMAH), est le premier ordinateur personnel doté d'une interface graphique. La machine comprend également un menu déroulant et des icônes. Cette année-là également, le Gavilan SC est commercialisé. Il s'agit du premier ordinateur portable au design flip-form et du tout premier à être vendu comme un "ordinateur portable".

1996 : Sergey Brin et Larry Page développent le moteur de recherche Google à l'université de Stanford.

Les années 1997 à 2010

1997 : Microsoft investit 150 millions de dollars dans Apple, qui connaît à l'époque des difficultés financières. Cet investissement met fin à une affaire judiciaire en cours dans laquelle Apple accusait Microsoft de copier son système d'exploitation. 1999 : Le Wi-Fi, terme abrégé de "wireless fidelity" (fidélité sans fil), est mis au point et couvre initialement une distance allant jusqu'à 91 mètres (300 pieds), selon Wired. 2003 : L'Athlon 64 d'AMD, le premier processeur 64 bits pour ordinateurs personnels, est proposé aux clients. 2004 : La Mozilla Corporation lance Mozilla Firefox 1.0. Ce navigateur Web est l'un des premiers grands défis lancés à Internet Explorer, propriété de Microsoft. Au cours de ses cinq premières années, Firefox a dépassé le milliard de téléchargements par les utilisateurs, selon le Web Design Museum. 2005 : Google rachète Android, un système d'exploitation pour téléphones mobiles basé sur Linux. 2006 : Le MacBook Pro d'Apple arrive sur les étagères. Le Pro est le premier ordinateur mobile à double cœur basé sur Intel de la société. 2009 : Microsoft lance Windows 7 le 22 juillet. Le nouveau système d'exploitation permet d'épingler des applications à la barre des tâches, de disperser des fenêtres en secouant une autre fenêtre, d'accéder facilement à des listes de raccourcis, de prévisualiser plus facilement les tuiles et bien plus encore, rapporte TechRadar. 2010 : L'iPad, la tablette portable phare d'Apple, est dévoilé.

Le premier ordinateur quantique

2011 : Google lance le Chromebook, qui fonctionne sous Google Chrome OS. 2015 : Apple lance l'Apple Watch. Microsoft lance Windows 10. 2016 : Le premier ordinateur quantique reprogrammable est créé. "Jusqu'à présent, aucune plateforme d'informatique quantique n'avait la capacité de programmer de nouveaux algorithmes dans son système. En général, chacune d'entre elles est conçue pour attaquer un algorithme particulier", a déclaré l'auteur principal de l'étude, Shantanu Debnath, physicien quantique et ingénieur en optique à l'université du Maryland, College Park.

les ordinateurs du futur

Les écrans pliables, voilà l’innovation la plus futuriste qui attend les utilisateurs en 2030. Microsoft a proposé une autre interprétation du terme « pliable », avec son Surface Neo qui permet de plier deux écrans articulés à la manière d’un livre. De façon générale, l’usage de plusieurs écrans devrait se généraliser et être facilité, y compris sur ordinateur portable.

En 2030, PC et smartphones pourraient bien se rencontrer au travers d’ordinateurs équipés d’un écran tactile, fonctionnant grâce à la reconnaissance biométrique, et pourvus de batteries longue durée ainsi que d’une meilleure connectivité au smartphone.

L’intelligence artificielle devrait s’imposer encore plus chez les PC. Préparez-vous à accueillir de nouveaux assistants virtuels se tenant aux aguets même lorsque l’ordinateur sera éteint. Les interactions vocales et textuelles seront de plus en plus entremêlées.

Le stockage devrait effectuer un virage à 180°C avec la disparition des disques durs traditionnels, au profit du Cloud et des SSD. Ce désamour pour le disque dur se manifeste très fortement depuis la fin des années 2010. Il s’accompagne d’une demande grandissante pour des processeurs performants, qui devraient être une des priorités des ingénieurs au cours de cette décennie.

les Impacts

Impacts économiques :L'économie numérique permet donc d'être en relation directe avec les consommateurs et ce sans contrainte de temps ni de lieu. Cette économie facilite, en outre, la personnalisation des relations avec une clientèle devenue plus exigeante en terme de qualité, des services et des produits qu'on lui présente.

Impacts environnementaux :La fabrication des équipements informatiques compte parmi les principales sources d'impacts environnementaux (29% de la consommation énergétique, 54% des émissions de gaz à effet de serre, 61% de l'utilisation en eau et 97% de l'épuisement des ressources).

Impacts sociaux :Les ordinateurs offrent de nombreuses occasions de rencontrer de nouvelles personnes.Les gens peuvent communiquer par Internet. Internet peut aider les gens à trouver d'autres personnes ayant des intérêts communs, des obligations de forme avec des étrangers et d'élargir leur réseau social.

Cela passe, notamment, par la virtualisation des interactions entre les différents éléments du système, qui augmente sa capacité tout en permettant de développer de nouveaux services, de déplacer facilement des ressources, et d'optimiser la sécurité.

Internet a contribué en 2010 à 25 % de la croissance du PIB. Internet aurait créé 700 000 emplois nets en 15 ans. Le rapport prévoit que le secteur d'Internet créera 450 000 emplois supplémentaires d'ici 2015 et représentera 5,5 % du PIB.

La fabrication de nos appareils numériques a également un impact social et éthique.

CONCLUSION

L’histoire de l’ordinateur est le récit des événements, des innovations et des développements technologiques dans le domaine de l’ informatique et de l’automatisation, qui ont donné naissance aux machines que nous connaissons sous le nom d’ordinateurs, d’ordinateurs ou d’ordinateurs. Il enregistre également son amélioration et sa mise à jour jusqu’à atteindre les versions miniaturisées et rapides du 21e siècle. Les ordinateurs, comme nous le savons tous , sont les machines à calculer les plus avancées et les plus efficaces inventées par l’ être humain . Ils sont dotés d’une puissance de fonctionnement, d’une autonomie et d’une rapidité suffisantes pour vous remplacer dans de nombreuses tâches, ou vous permettre une dynamique de travail virtuelle et numérique qui n’a jamais été possible auparavant dans l’histoire. L’invention de ce type d’appareil au XXe siècle a révolutionné à jamais notre façon de comprendre les processus industriels , le travail , la société et d’innombrables autres domaines de notre vie. Cela affecte de la manière même d’être en relation les uns avec les autres, jusqu’au type d’opérations d’échange d’informations à l’échelle mondiale que nous sommes capables de mener.

Sitographie

-Wikipedia -Histoire pour tous -Librecour -Universalis -technoscience

AUTHOR'S NAME

THANK YOU!