Want to create interactive content? It’s easy in Genially!
Copy - Linea temporal IA Laura Hernandez
Laura Hernández Sánchez
Created on September 24, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Education Timeline
View
Images Timeline Mobile
View
Sport Vibrant Timeline
View
Decades Infographic
View
Comparative Timeline
View
Square Timeline Diagram
View
Timeline Diagram
Transcript
INTELIGENCIA ARTIFICIAL
Laura Hernández Sánchez
Alan Turing publicó "Maquinaria informática e inteligencia", presentando el test de Turing y abriendo las puertas a lo que se conocería como IA.
Marvin Minsky y Dean Edmonds desarrollaron la primera red neuronal artificial (ANN) llamada SNARC utilizando 3.000 tubos de vacío para simular una red de 40 neuronas.
1951
1950
Arthur Samuel desarrolló Samuel Checkers-Playing Program, el primer programa del mundo para jugar juegos que aprendían por sí solos.
1952
John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon acuñaron el término inteligencia artificial en una propuesta para un taller ampliamente reconocido como un evento fundador en el campo de la IA.
1956
Frank Rosenblatt desarrolló el perceptrón, una de las primeras redes neuronales artificiales que podían aprender de los datos y se convirtió en la base de las redes neuronales modernas. John McCarthy desarrolló el lenguaje de programación Lisp, que fue rápidamente adoptado por la industria de la IA y ganó enorme popularidad entre los desarrolladores.
1956
1959
Arthur Samuel acuñó el término aprendizaje automático, explicaba que la computadora podía programarse para superar a su programador. Oliver Selfridge publicó "Pandemonium: un paradigma para el aprendizaje", que describió un modelo que podía mejorar de forma adaptativa para encontrar patrones en los eventos.
1964
1965
1960
Daniel Bobrow desarrolló STUDENT, uno de los primeros programas de procesamiento del lenguaje natural ( PLN ) diseñado para resolver problemas de álgebra, mientras era candidato a doctorado en el MIT.
Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg y Carl Djerassi desarrollaron el primer sistema experto, Dendral, que ayudó a los químicos orgánicos a identificar moléculas orgánicas desconocidas.
1966
1968
Terry Winograd creó SHRDLU, la primera IA multimodal que podía manipular y razonar un mundo de bloques según las instrucciones de un usuario.
Joseph Weizenbaum creó Eliza , uno de los programas informáticos más famosos de todos los tiempos, capaz de entablar conversaciones con humanos y hacerles creer que el software tenía emociones humanas.El Instituto de Investigación de Stanford desarrolló Shakey, el primer robot inteligente móvil del mundo
1969
1970
Arthur Bryson y Yu-Chi Ho describieron un algoritmo de aprendizaje de retropropagación para permitir ANN multicapa, un avance respecto del perceptrón y el aprendizaje profundo. Marvin Minsky y Seymour Papert publicaron el libro Perceptrons , que describió las limitaciones de las redes neuronales simples y provocó que la investigación sobre redes neuronales decayera y que la IA simbólica prosperara.
1973
James Lighthill publicó el informe “Inteligencia artificial: una encuesta general”, que provocó que el gobierno británico redujera significativamente el apoyo a la investigación en IA.
Marvin Minsky y Roger Schank acuñaron el término "invierno de la IA" en una reunión de la Asociación para el Avance de la Inteligencia Artificial, advirtiendo a la comunidad empresarial que la publicidad exagerada de la IA conduciría a la decepción y al colapso de la industria, lo que ocurrió tres años después.
Se comercializaron las máquinas Lisp de Symbolics, lo que marcó un renacimiento de la IA. Años después, el mercado de las máquinas Lisp colapsó.
Danny Hillis diseñó computadoras paralelas para IA y otras tareas computacionales, una arquitectura similar a las GPU modernas.
1980
1980
1984
1981
1985
1988
Judea Pearl introdujo el análisis causal de redes bayesianas, que proporciona técnicas estadísticas para representar la incertidumbre en las computadoras.
Peter Brown et al. publicaron "Un enfoque estadístico para la traducción de idiomas", allanando el camino para uno de los métodos de traducción automática más ampliamente estudiados.
1989
Sepp Hochreiter y Jürgen Schmidhuber propusieron la red neuronal recurrente de memoria a corto y largo plazo , que podría procesar secuencias enteras de datos como voz o vídeo. Deep Blue de IBM derrotó a Garry Kasparov en una revancha histórica de ajedrez, la primera derrota de un actual campeón mundial de ajedrez por una computadora en condiciones de torneo.
Yann LeCun, Yoshua Bengio y Patrick Haffner demostraron cómo se pueden utilizar las redes neuronales convolucionales (CNN) para reconocer caracteres escritos a mano, mostrando que las redes neuronales podrían aplicarse a problemas del mundo real.
1990
1997
Investigadores de la Universidad de Montreal publicaron "Un modelo de lenguaje probabilístico neuronal", que sugiere un método para modelar el lenguaje utilizando redes neuronales de propagación hacia adelante.
2000
2006
Fei-Fei Li comenzó a trabajar en la base de datos visual ImageNet, presentada en 2009, que se convirtió en un catalizador para el auge de la IA y en la base de una competencia anual para algoritmos de reconocimiento de imágenes. IBM Watson nació con el objetivo inicial de vencer a un humano en el icónico concurso de preguntas Jeopardy! En 2011, el sistema informático de preguntas y respuestas derrotó al campeón (humano) de todos los tiempos del programa, Ken Jennings.
2009
Jürgen Schmidhuber, Dan Claudiu Cireșan, Ueli Meier y Jonathan Masci desarrollaron la primera CNN que logró un rendimiento "sobrehumano" al ganar el concurso alemán de reconocimiento de señales de tráfico. Apple lanzó Siri, un asistente personal activado por voz que puede generar respuestas y realizar acciones en respuesta a solicitudes de voz.
Rajat Raina, Anand Madhavan y Andrew Ng publicaron "Aprendizaje profundo no supervisado a gran escala utilizando procesadores gráficos", presentando la idea de utilizar GPU para entrenar redes neuronales grandes.
2011
2012
Geoffrey Hinton, Ilya Sutskever y Alex Krizhevsky presentaron una arquitectura CNN profunda que ganó el desafío ImageNet y desencadenó la explosión de la investigación e implementación del aprendizaje profundo .
La Tianhe-2 de China duplicó la velocidad de supercomputación más alta del mundo con 33,86 petaflops, conservando el título del sistema más rápido del mundo por tercera vez consecutiva. DeepMind introdujo el aprendizaje de refuerzo profundo, una CNN que aprendía en base a recompensas y aprendía a jugar mediante la repetición, superando los niveles de expertos humanos. El investigador de Google Tomas Mikolov y sus colegas introdujeron Word2vec para identificar automáticamente las relaciones semánticas entre palabras.
Ian Goodfellow y sus colegas inventaron las redes generativas antagónicas, una clase de marcos de aprendizaje automático utilizados para generar fotografías, transformar imágenes y crear deepfakes . Diederik Kingma y Max Welling introdujeron autocodificadores variacionales para generar imágenes, vídeos y texto. Facebook desarrolló el sistema de reconocimiento facial de aprendizaje profundo DeepFace, que identifica rostros humanos en imágenes digitales con una precisión casi humana.
2011
2014
AlphaGo de DeepMind derrotó al mejor jugador de Go, Lee Sedol, en Seúl, Corea del Sur, lo que generó comparaciones con la partida de ajedrez de Kasparov contra Deep Blue casi 20 años antes. Uber inició un programa piloto de automóviles autónomos en Pittsburgh para un grupo selecto de usuarios.
2017
2016
Los investigadores de Stanford publicaron un trabajo sobre modelos de difusión en el artículo "Deep Unsupervised Learning Using Nonequilibrium Thermodynamics". La técnica proporciona una forma de aplicar ingeniería inversa al proceso de añadir ruido a una imagen final. Los investigadores de Google desarrollaron el concepto de transformadores, inspiró investigaciones posteriores sobre herramientas que pudieran analizar automáticamente texto sin etiquetar en modelos de lenguaje grandes (LLM). El físico británico Stephen Hawking advirtió: "A menos que aprendamos a prepararnos y evitar los riesgos potenciales, la IA podría ser el peor acontecimiento en la historia de nuestra civilización".
Desarrollado por IBM, Airbus y el Centro Aeroespacial Alemán DLR, Cimon fue el primer robot enviado al espacio para ayudar a los astronautas. OpenAI lanzó GPT (Transformador preentrenado generativo), allanando el camino para los LLM posteriores. Groove X presentó un mini-robot doméstico llamado Lovot que podría detectar y afectar los cambios de humor en los humanos.
Microsoft lanzó el modelo de lenguaje generativo Turing Natural Language Generation con 17 mil millones de parámetros. El algoritmo de aprendizaje profundo de Google AI y Langone Medical Center superaron a los radiólogos en la detección de posibles cánceres de pulmón.
2018
2019
2020
La Universidad de Oxford desarrolló una prueba de inteligencia artificial llamada Curial para identificar rápidamente el COVID-19 en pacientes de salas de emergencia. Open AI lanzó el GPT-3 LLM que consta de 175 mil millones de parámetros para generar modelos de texto similares a los humanos. Nvidia anunció la versión beta de su plataforma Omniverse para crear modelos 3D en el mundo físico. El sistema AlphaFold de DeepMind ganó el concurso de plegamiento de proteínas Evaluación crítica de predicción de la estructura de proteínas.
2021
OpenAI presentó el sistema de inteligencia artificial multimodal Dall-E que puede generar imágenes a partir de indicaciones de texto. La Universidad de California en San Diego creó un robot blando de cuatro patas que funcionaba con aire presurizado en lugar de dispositivos electrónicos.
Los modelos multimodelo en IA pueden captar información de distintos tipos de datos, como audio, vídeo e imágenes, además de texto. Esta tecnología permite que las herramientas de búsqueda y creación de contenido sean más fluidas e intuitivas y se integren más fácilmente en otras aplicaciones que ya utilizamos.
El ingeniero de software de Google, Blake Lemoine, fue despedido por revelar secretos de Lamda y afirmar que era sensible. DeepMind presentó AlphaTensor "para descubrir algoritmos novedosos, eficientes y demostrablemente correctos ". Intel afirmó que su detector de deepfake en tiempo real FakeCatcher tenía una precisión del 96%. OpenAI lanzó ChatGPT en noviembre para proporcionar una interfaz basada en chat para su LLM GPT-3.5.
2023
2024
2022
OpenAI anunció el LLM multimodal GPT-4 que recibe indicaciones tanto de texto como de imágenes. Elon Musk, Steve Wozniak y miles de firmantes más pidieron una pausa de seis meses en el entrenamiento de "sistemas de IA más potentes que GPT-4".