Want to create interactive content? It’s easy in Genially!

Get started free

Copy - Linea temporal IA Laura Hernandez

Laura Hernández Sánchez

Created on September 24, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Education Timeline

Images Timeline Mobile

Sport Vibrant Timeline

Decades Infographic

Comparative Timeline

Square Timeline Diagram

Timeline Diagram

Transcript

INTELIGENCIA ARTIFICIAL

Laura Hernández Sánchez

Alan Turing publicó "Maquinaria informática e inteligencia", presentando el test de Turing y abriendo las puertas a lo que se conocería como IA.

Marvin Minsky y Dean Edmonds desarrollaron la primera red neuronal artificial (ANN) llamada SNARC utilizando 3.000 tubos de vacío para simular una red de 40 neuronas.

1951

1950

Arthur Samuel desarrolló Samuel Checkers-Playing Program, el primer programa del mundo para jugar juegos que aprendían por sí solos.

1952

John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon acuñaron el término inteligencia artificial en una propuesta para un taller ampliamente reconocido como un evento fundador en el campo de la IA.

1956

Frank Rosenblatt desarrolló el perceptrón, una de las primeras redes neuronales artificiales que podían aprender de los datos y se convirtió en la base de las redes neuronales modernas. John McCarthy desarrolló el lenguaje de programación Lisp, que fue rápidamente adoptado por la industria de la IA y ganó enorme popularidad entre los desarrolladores.

1956

1959

Arthur Samuel acuñó el término aprendizaje automático, explicaba que la computadora podía programarse para superar a su programador. Oliver Selfridge publicó "Pandemonium: un paradigma para el aprendizaje", que describió un modelo que podía mejorar de forma adaptativa para encontrar patrones en los eventos.

1964

1965

1960

Daniel Bobrow desarrolló STUDENT, uno de los primeros programas de procesamiento del lenguaje natural ( PLN ) diseñado para resolver problemas de álgebra, mientras era candidato a doctorado en el MIT.

Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg y Carl Djerassi desarrollaron el primer sistema experto, Dendral, que ayudó a los químicos orgánicos a identificar moléculas orgánicas desconocidas.

1966

1968

Terry Winograd creó SHRDLU, la primera IA multimodal que podía manipular y razonar un mundo de bloques según las instrucciones de un usuario.

Joseph Weizenbaum creó Eliza , uno de los programas informáticos más famosos de todos los tiempos, capaz de entablar conversaciones con humanos y hacerles creer que el software tenía emociones humanas.El Instituto de Investigación de Stanford desarrolló Shakey, el primer robot inteligente móvil del mundo

1969

1970

Arthur Bryson y Yu-Chi Ho describieron un algoritmo de aprendizaje de retropropagación para permitir ANN multicapa, un avance respecto del perceptrón y el aprendizaje profundo. Marvin Minsky y Seymour Papert publicaron el libro Perceptrons , que describió las limitaciones de las redes neuronales simples y provocó que la investigación sobre redes neuronales decayera y que la IA simbólica prosperara.

1973

James Lighthill publicó el informe “Inteligencia artificial: una encuesta general”, que provocó que el gobierno británico redujera significativamente el apoyo a la investigación en IA.

Marvin Minsky y Roger Schank acuñaron el término "invierno de la IA" en una reunión de la Asociación para el Avance de la Inteligencia Artificial, advirtiendo a la comunidad empresarial que la publicidad exagerada de la IA conduciría a la decepción y al colapso de la industria, lo que ocurrió tres años después.

Se comercializaron las máquinas Lisp de Symbolics, lo que marcó un renacimiento de la IA. Años después, el mercado de las máquinas Lisp colapsó.

Danny Hillis diseñó computadoras paralelas para IA y otras tareas computacionales, una arquitectura similar a las GPU modernas.

1980

1980

1984

1981

1985

1988

Judea Pearl introdujo el análisis causal de redes bayesianas, que proporciona técnicas estadísticas para representar la incertidumbre en las computadoras.

Peter Brown et al. publicaron "Un enfoque estadístico para la traducción de idiomas", allanando el camino para uno de los métodos de traducción automática más ampliamente estudiados.

1989

Sepp Hochreiter y Jürgen Schmidhuber propusieron la red neuronal recurrente de memoria a corto y largo plazo , que podría procesar secuencias enteras de datos como voz o vídeo. Deep Blue de IBM derrotó a Garry Kasparov en una revancha histórica de ajedrez, la primera derrota de un actual campeón mundial de ajedrez por una computadora en condiciones de torneo.

Yann LeCun, Yoshua Bengio y Patrick Haffner demostraron cómo se pueden utilizar las redes neuronales convolucionales (CNN) para reconocer caracteres escritos a mano, mostrando que las redes neuronales podrían aplicarse a problemas del mundo real.

1990

1997

Investigadores de la Universidad de Montreal publicaron "Un modelo de lenguaje probabilístico neuronal", que sugiere un método para modelar el lenguaje utilizando redes neuronales de propagación hacia adelante.

2000

2006

Fei-Fei Li comenzó a trabajar en la base de datos visual ImageNet, presentada en 2009, que se convirtió en un catalizador para el auge de la IA y en la base de una competencia anual para algoritmos de reconocimiento de imágenes. IBM Watson nació con el objetivo inicial de vencer a un humano en el icónico concurso de preguntas Jeopardy! En 2011, el sistema informático de preguntas y respuestas derrotó al campeón (humano) de todos los tiempos del programa, Ken Jennings.

2009

Jürgen Schmidhuber, Dan Claudiu Cireșan, Ueli Meier y Jonathan Masci desarrollaron la primera CNN que logró un rendimiento "sobrehumano" al ganar el concurso alemán de reconocimiento de señales de tráfico. Apple lanzó Siri, un asistente personal activado por voz que puede generar respuestas y realizar acciones en respuesta a solicitudes de voz.

Rajat Raina, Anand Madhavan y Andrew Ng publicaron "Aprendizaje profundo no supervisado a gran escala utilizando procesadores gráficos", presentando la idea de utilizar GPU para entrenar redes neuronales grandes.

2011

2012

Geoffrey Hinton, Ilya Sutskever y Alex Krizhevsky presentaron una arquitectura CNN profunda que ganó el desafío ImageNet y desencadenó la explosión de la investigación e implementación del aprendizaje profundo .

La Tianhe-2 de China duplicó la velocidad de supercomputación más alta del mundo con 33,86 petaflops, conservando el título del sistema más rápido del mundo por tercera vez consecutiva. DeepMind introdujo el aprendizaje de refuerzo profundo, una CNN que aprendía en base a recompensas y aprendía a jugar mediante la repetición, superando los niveles de expertos humanos. El investigador de Google Tomas Mikolov y sus colegas introdujeron Word2vec para identificar automáticamente las relaciones semánticas entre palabras.

Ian Goodfellow y sus colegas inventaron las redes generativas antagónicas, una clase de marcos de aprendizaje automático utilizados para generar fotografías, transformar imágenes y crear deepfakes . Diederik Kingma y Max Welling introdujeron autocodificadores variacionales para generar imágenes, vídeos y texto. Facebook desarrolló el sistema de reconocimiento facial de aprendizaje profundo DeepFace, que identifica rostros humanos en imágenes digitales con una precisión casi humana.

2011

2014

AlphaGo de DeepMind derrotó al mejor jugador de Go, Lee Sedol, en Seúl, Corea del Sur, lo que generó comparaciones con la partida de ajedrez de Kasparov contra Deep Blue casi 20 años antes. Uber inició un programa piloto de automóviles autónomos en Pittsburgh para un grupo selecto de usuarios.

2017

2016

Los investigadores de Stanford publicaron un trabajo sobre modelos de difusión en el artículo "Deep Unsupervised Learning Using Nonequilibrium Thermodynamics". La técnica proporciona una forma de aplicar ingeniería inversa al proceso de añadir ruido a una imagen final. Los investigadores de Google desarrollaron el concepto de transformadores, inspiró investigaciones posteriores sobre herramientas que pudieran analizar automáticamente texto sin etiquetar en modelos de lenguaje grandes (LLM). El físico británico Stephen Hawking advirtió: "A menos que aprendamos a prepararnos y evitar los riesgos potenciales, la IA podría ser el peor acontecimiento en la historia de nuestra civilización".

Desarrollado por IBM, Airbus y el Centro Aeroespacial Alemán DLR, Cimon fue el primer robot enviado al espacio para ayudar a los astronautas. OpenAI lanzó GPT (Transformador preentrenado generativo), allanando el camino para los LLM posteriores. Groove X presentó un mini-robot doméstico llamado Lovot que podría detectar y afectar los cambios de humor en los humanos.

Microsoft lanzó el modelo de lenguaje generativo Turing Natural Language Generation con 17 mil millones de parámetros. El algoritmo de aprendizaje profundo de Google AI y Langone Medical Center superaron a los radiólogos en la detección de posibles cánceres de pulmón.

2018

2019

2020

La Universidad de Oxford desarrolló una prueba de inteligencia artificial llamada Curial para identificar rápidamente el COVID-19 en pacientes de salas de emergencia. Open AI lanzó el GPT-3 LLM que consta de 175 mil millones de parámetros para generar modelos de texto similares a los humanos. Nvidia anunció la versión beta de su plataforma Omniverse para crear modelos 3D en el mundo físico. El sistema AlphaFold de DeepMind ganó el concurso de plegamiento de proteínas Evaluación crítica de predicción de la estructura de proteínas.

2021

OpenAI presentó el sistema de inteligencia artificial multimodal Dall-E que puede generar imágenes a partir de indicaciones de texto. La Universidad de California en San Diego creó un robot blando de cuatro patas que funcionaba con aire presurizado en lugar de dispositivos electrónicos.

Los modelos multimodelo en IA pueden captar información de distintos tipos de datos, como audio, vídeo e imágenes, además de texto. Esta tecnología permite que las herramientas de búsqueda y creación de contenido sean más fluidas e intuitivas y se integren más fácilmente en otras aplicaciones que ya utilizamos.

El ingeniero de software de Google, Blake Lemoine, fue despedido por revelar secretos de Lamda y afirmar que era sensible. DeepMind presentó AlphaTensor "para descubrir algoritmos novedosos, eficientes y demostrablemente correctos ". Intel afirmó que su detector de deepfake en tiempo real FakeCatcher tenía una precisión del 96%. OpenAI lanzó ChatGPT en noviembre para proporcionar una interfaz basada en chat para su LLM GPT-3.5.

2023

2024

2022

OpenAI anunció el LLM multimodal GPT-4 que recibe indicaciones tanto de texto como de imágenes. Elon Musk, Steve Wozniak y miles de firmantes más pidieron una pausa de seis meses en el entrenamiento de "sistemas de IA más potentes que GPT-4".