Want to create interactive content? It’s easy in Genially!

Get started free

LÍNEA DE TIEMPO IA

Pablo Suárez

Created on September 11, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Practical Timeline

History Timeline

Education Timeline

Timeline video mobile

Timeline Lines Mobile

Major Religions Timeline

Timeline Flipcard

Transcript

INTELIGENCIA ARTIFICIAL LÍNEA DE TIEMPO 1950 / 2024

1966

ELIZA, PRIMER CHATBOT

1966

1956

ENTRA EN FUNCIONAMIENTO EL ROBOT SHAKEY

CONFERENCIA DE DARTMOUTH

1960

1950

1961

1968

1950

1958

UNIMATE,PRIMER ROBOT INDUSTRIAL

"DO ANDROIDS DREAM OFELECTRIC SHEEP?”

PRUEBA DE TURING

EL PERCEPTRÓN

1961

SE PUBLICA "PASOS HACIA LA INTELIGENCIA ARTIFICIAL"

INTELIGENCIA ARTIFICIAL LÍNEA DE TIEMPO 1950 / 2024

1979

1973

1987

TEORÍA DE LOS SCRIPTS

UN ORDENADOR VENCE AL BACKGAMMON

LOS 12 ATRIBUTOS DE UN AGENTE INTELIGENTE

1970

1980

1986

1972

1975

ALGORITMO DE RETROPROPAGACIÓN

“LO QUE NO PUEDEN HACER LOS ORDENADORES”

MYCIN, PRIMERA APLICACIÓN MÉDICA DE IA

INTELIGENCIA ARTIFICIAL LÍNEA DE TIEMPO 1950 / 2024

2006

2012

ALEXNET, RED NEURONAL CONVOLUCIONAL (CNN)

RESTRICTED BOLTZMANN MACHINES (RBM)

1990

2000

2010

1997

2000

2011

DEEP BLUE VENCE A GARRY KASPAROV

HONDA PRESENTA EL ROBOT HUMANOIDE ASIMO

VICTORIA DE IBM WATSON EN JEOPARDY!

INTELIGENCIA ARTIFICIAL LÍNEA DE TIEMPO 1950 / 2024

2016

MICROSOFT LANZA TAY

2023

2016

ALPHAGO VENCE A LEE SEDOL

OPENAI LANZA DALL-E

2010

2020

2018

2021

2014

OPENAI DESARROLLA LA VERSIÓN INICIAL DE GPT

GENERATIVE ADVERSARIAL NETWORKS (GANS)

RECOMENDACIÓN SOBRE LA ÉTICA DE LA IA

2014

2018

UN ORDENADOR SUPERA EL TEST DE TURING

GOOGLE DESARROLLA BERT

Algoritmo de Retropropagación

Rumelhart, Hinton y Williams popularizan el algoritmo de retropropagación, un método clave para entrenar redes neuronales artificiales y cuyo objetivo es minimizar el error de predicción ajustando los pesos de las conexiones entre neuronas. Para lograrlo, la red recibe datos y hace una predicción. Luego, compara esa predicción con la respuesta correcta para ver cuánto se equivocó. Después, el algoritmo calcula cómo cada parte de la red contribuyó al error y ajusta los "pesos" para mejorar la próxima predicción. Este proceso se repite en múltiples ciclos, reduciendo el error hasta un nivel aceptable y permitiendo que la red aprenda a resolver problemas complejos mediante el ajuste iterativo de sus parámetros internos.

La retropropagación resolvió el problema de entrenar eficientemente redes profundas y marcó el inicio del desarrollo del deep learning, marcando una nueva era en la inteligencia artificial.

Microsoft lanza Tay

Microsoft lanza Tay, un chatbot para interactuar en Twitter y aprender de las conversaciones con los usuarios. Su objetivo es simular el comportamiento de una joven adolescente, adaptando sus respuestas a las interacciones para mejorar su capacidad de conversación a través del aprendizaje automático. Sin embargo, en pocas horas, debido a las interacciones negativas y ofensivas de los usuarios, Tay comienza a emitir mensajes inapropiados, reflejando los sesgos y el mal comportamiento con el que fue alimentado.

El incidente de Tay subrayó los riesgos del aprendizaje automático en entornos no controlados, revelando cómo la IA puede replicar y amplificar comportamientos humanos problemáticos. Esto marcó un punto clave en la discusión sobre la ética en IA y la necesidad de establecer mecanismos de moderación y control en sistemas que interactúan con el público.

Deep Blue vence a Garry Kasparov

El superordenador de IBM, Deep Blue, derrota al campeón mundial de ajedrez Garry Kasparov, en un partido de seis juegos.

Fue el primer triunfo de una máquina sobre un campeón mundial de ajedrez en un enfrentamiento oficial. Este logro demostró la capacidad de las computadoras para procesar enormes cantidades de datos y evaluar millones de posiciones por segundo, utilizando algoritmos avanzados de búsqueda y evaluación. La victoria de Deep Blue destaca el potencial de la IA para enfrentar desafíos que hasta entonces se consideraban exclusivos de la inteligencia humana.

Un ordenador supera con éxito el Test de Turing

En una prueba organizada por la Universidad de Reading y realizada en la Royal Society de Londres, un programa de ordenador logra hacer creer al 33% de sus interlocutores que es un humano, requisito planteado por Alan Turing en su famoso test. El programa, llamado Eugene, fue desarrollado en Rusia y se hizo pasar por un niño de 13 años.

Fue el primer sistema en pasar el Test de Turing. Demostró avances significativos en el procesamiento del lenguaje natural y la interacción humano-computadora, aunque también generó debate sobre los criterios del test.

El Perceptrón

Frank Rosenblatt desarrolla el Perceptrón, el primer modelo de red neuronal capaz de aprender.

Aunque con limitaciones, el Perceptrón sentó las bases para el desarrollo de algoritmos de aprendizaje automático y demostró que las máquinas podían aprender a partir de datos.

Victoria de IBM Watson en Jeopardy!

Watson, la supercomputadora de IBM supera, en el concurso de televisión Jeopardy!, a sus dos máximos campeones, Ken Jennings y Brad Rutterial y gana un premio de 1 millón de dólares que IBM dona a obras de caridad. Watson, un sistema basado en procesamiento del lenguaje natural y técnicas avanzadas de aprendizaje automático, puede interpretar y responder preguntas en lenguaje natural, algo esencial para el formato de Jeopardy!, que requiere comprensión y razonamiento sobre preguntas formuladas en forma de respuesta.

Este logro demostró que la inteligencia artificial puede manejar y comprender lenguaje humano complejo y ambiguo, un desafío significativo en el campo de la IA.

AlphaGo vence a Lee Sedol

AlphaGo, desarrollado por DeepMind (ahora parte de Google), derrota al segundo mejor jugador del mundo de Go, Lee Sedol. El Go es un juego de estrategia muy complejo. AlphaGo utilizó técnicas avanzadas de deep learning y redes neuronales profundas para analizar millones de partidas y mejorar su rendimiento.

La victoria demostró que la IA podía superar a los humanos en tareas que requieren intuición y estrategias complejas, impulsando investigaciones en IA avanzada.

ELIZA, primer Chatbot

Joseph Weizenbaum desarrolla ELIZA, uno de los primeros programas de procesamiento de lenguaje natural.

ELIZA demostró la capacidad de las máquinas para interactuar con humanos a través del lenguaje natural.

Generative Adversarial Networks (GANs)

Propuestas por Ian Goodfellow y sus colegas, las Redes Generativas Antagónicas (GANs) introdujeron un enfoque novedoso en el entrenamiento de redes neuronales, donde dos redes compiten entre sí para generar datos sintéticos. Entrenadas con un mismo conjunto de datos, la primera (red generativa) debe intentar crear variaciones de los datos que ya ha visto. La otra red (discriminadora) debe identificar si ese rostro que está viendo forma parte del entrenamiento original o si es un rostro falso que creó la red generativa. Mientras más lo hace, la red generativa se hace mejor creando y a la red discriminadora se le hace más difícil detectar si el rostro es falso.

Las GANs han abierto nuevas posibilidades en el desarrollo de IA creativa. Antes, las máquinas podían analizar y clasificar datos, pero no generar contenido original con la misma precisión. Con las GANs, los sistemas de IA ahora pueden crear arte, música, imágenes e incluso texto. Este avance ha cambiado industrias como la publicidad, el diseño gráfico y el cine.

Teoría de los scripts

Roger Schank y Robert Abelson desarrollan la teoría de los scripts. Esta teoría propone que los seres humanos comprenden y organizan el conocimiento a través de estructuras narrativas predeterminadas. Estos scripts representan secuencias comunes de eventos como ir a un restaurante, que las personas usan para predecir y comprender lo que sucede en una situación determinada.

Schank y Abelson aplicaron esta idea a la IA, buscando que las máquinas pudieran interpretar y responder de manera más natural a los relatos o descripciones. La importancia de su trabajo radica en haber desafiado los modelos de IA basados sólo en reglas lógicas. Su investigación marcó un avance crucial en el intento de hacer que las máquinas "comprendan" historias de la manera en que lo hacen los humanos, introduciendo conceptos de inferencia, expectativas y sentido común.

OpenAI desarrolla la versión inicial de GPT

GPT (Generative Pre-trained Transformer) es un tipo de modelo de inteligencia artificial desarrollado por la empresa OpenAI. Básicamente, GPT es una máquina que puede entender el lenguaje de manera muy avanzada y generar respuestas, historias, explicaciones o cualquier otro tipo de texto en función de lo que se le pida. GPT se basa en una arquitectura llamada Transformers, que le permite manejar grandes cantidades de texto y aprender patrones en el lenguaje de forma muy efectiva. GPT se entrena con miles de millones de palabras, y durante ese entrenamiento, aprende cómo se estructura el lenguaje humano: las reglas gramaticales, el significado de las palabras y cómo las frases y párrafos se relacionan entre sí.

Las últimas versiones de GPT han popularizado la IA generativa y transformado áreas como la educación, los negocios y el entretenimiento mediante interacciones más naturales entre humanos y máquinas.

Los 12 atributos de un agente inteligente

Martin Fischles y Oscar Firschein describen las 12 características clave que definen a un sistema capaz de actuar de manera autónoma e inteligente en su entorno. Además de la capacidad de comunicarse, enumeran atributos como la percepción, el razonamiento, la planificación y el aprendizaje, la capacidad de interactuar con su entorno y adaptarse a sus cambios. Señalan que un agente inteligente no solo debe procesar información y ejecutar tareas, sino también tomar decisiones basadas en el contexto y el conocimiento previo, lo que le permite actuar de manera eficiente ante situaciones complejas.

Los atributos dieron un marco conceptual sólido para el diseño y la evaluación de sistemas inteligentes, influyendo en áreas clave de la IA moderna, como los sistemas multiagente y la inteligencia distribuida y abriendo nuevas posibilidades en aplicaciones como los asistentes virtuales, los robots autónomos y los sistemas de simulación avanzada.

“Do Androids Dream of Electric Sheep?”

Philip K. Dick publica “Do Androids Dream of Electric Sheep?”, una novela de ciencia ficción, adaptada libremente por Ridley Scott en la película Blade Runner, que explora la complejidad de la inteligencia artificial a través de los replicantes.

En esta obra, la línea entre humanos y máquinas se difumina a medida que los personajes luchan por determinar quién es real y quién no. En muchos sentidos, esta lucha refleja el debate actual en torno al auge de la inteligencia artificial y su posible impacto en el pensamiento crítico.

Honda presenta el robot humanoide ASIMO

Honda presenta la primera versión del popular ASIMO, un robot diseñado para imitar las capacidades físicas y cognitivas de un ser humano. Equipado con múltiples sensores, cámaras y algoritmos avanzados, ASIMO fue creado para explorar la interacción entre humanos y robots, centrado en la movilidad y la capacidad de tomar decisiones en tiempo real para adaptarse a su entorno.

ASIMO fue uno de los primeros robots humanoides avanzados en demostrar una movilidad autónoma fluida. Inspiró la evolución de robots más avanzados y fomentó la idea de que los robots pueden integrarse en la vida diaria para mejorar la calidad de vida y asumir tareas físicas complejas.

Prueba de Turing

Alan Turing propone la prueba de Turing, una herramienta de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de éste.

Es uno de los pilares fundamentales en el desarrollo de la inteligencia artificial. La búsqueda por superar la prueba ha impulsado avances significativos en el procesamiento del lenguaje natural, el aprendizaje automático y otras áreas clave de la IA.

MYCIN, primera aplicación médica de IA

Edward Shortliffe desarrolla, en la Universidad de Stanford, MYCIN, un sistema experto para diagnosticar y recomendar tratamiento para la meningitis y otras infecciones bacterianas de la sangre.

Marcó el inicio de la aplicación de la IA en la medicina.

Entra en funcionamiento el robot Shakey

El Centro de Inteligencia Artificial del Instituto de Investigación de Stanford desarrolla Shakey, el primer robot inteligente de propósito general, capaz de razonar sobre sus propias acciones.

Considerado el antecesor de los coches autónomos, Shakey fue uno de los primeros robots móviles autónomos capaces de percibir su entorno y tomar decisiones en función de esa información. Mientras que otros robots tenían que ser instruidos en cada paso para completar una tarea, Shakey podía, por sí mismo, analizar la orden y desglosarla en partes básicas.

Google desarrolla BERT

BERT (Bidirectional Encoder Representations from Transformers) es un modelo de procesamiento de lenguaje natural creado y publicado por Jacob Devlin y sus compañeros en Google. Su innovación radica en ser bidireccional, lo que significa que analiza el contexto de una palabra observando tanto las palabras que la preceden como las que la siguen, a diferencia de los modelos anteriores que solo consideraban un sentido. BERT está basado en la arquitectura de transformers, que permite capturar relaciones complejas entre palabras en un texto y mejorar la comprensión del lenguaje.

Revolucionó el procesamiento de lenguaje natural, mejorando tareas como la traducción y la búsqueda en internet. Su capacidad para entender mejor el contexto de palabras ha hecho que los resultados en búsquedas sean más precisos y ha permitido un avance considerable en la interacción humano-máquina.

Restricted Boltzmann Machines (RBM)

Las Restricted Boltzmann Machines (RBM), desarrolladas por Geoffrey Hinton y Ruslan Salakhutdinov, son un tipo especial de red neuronal que se utiliza para aprender patrones en los datos. Están diseñadas para descubrir relaciones ocultas en grandes volúmenes de información, de manera similar a como nuestro cerebro puede reconocer patrones visuales o auditivos con la experiencia.

El desarrollo de las RBM fue fundamental en la evolución de la inteligencia artificial. Su capacidad para reducir la dimensionalidad de los datos y descubrir características relevantes fue clave en la creación de modelos más eficientes y precisos. De hecho, han sido usadas en áreas como el reconocimiento de imágenes, las recomendaciones de contenido (como las que usan Netflix o YouTube) y el análisis de datos médicos.

OpenAI lanza DALL-E

OpenAI desarrolla DALL-E, un modelo de inteligencia artificial que genera imágenes a partir de descripciones textuales. Basado en una versión modificada del modelo GPT-3, DALL-E utiliza técnicas de deep learning y procesamiento de lenguaje natural para comprender el texto y crear imágenes que reflejan lo descripto, combinando objetos y conceptos de manera coherente. Puede generar imágenes inéditas, incluso de conceptos abstractos o inusuales, a partir de indicaciones detalladas.

Su capacidad para fusionar el lenguaje y la creación visual, impulsando avances en la IA creativa, ha revolucionado industrias como el arte, la publicidad y el diseño.

Se publica Pasos hacia la inteligencia artificial

Marvin Minsky publica “Pasos hacia la inteligencia artificial”, un trabajo académico en el que recoge los primeros avances en el campo de la inteligencia artificial.

Esta publicación sirvió de inspiración a otros investigadores e impulsó nuevas iniciativas.

“Lo que no pueden hacer los ordenadores”

Hubert Dreyfus publica “Lo que no pueden hacer los ordenadores”, obra en la que critica la inteligencia artificial al cuestionar la capacidad de las máquinas para replicar la inteligencia humana. Sostiene que los enfoques basados en lógica formal y procesamiento de información no pueden capturar la complejidad del pensamiento humano, ya que las máquinas carecen de contexto y comprensión situacional. Para Dreyfus, aspectos como la intuición y el sentido común son inalcanzables para las máquinas.

Sus críticas impulsaron el "invierno" de la IA, un periodo en el que las promesas no cumplidas y la falta de poder de procesamiento redujeron el interés y la inversión en IA, limitando su desarrollo inicial.

Un ordenador vence al backgammon

Hans Berliner, profesor en la Universidad Carnegie Mellon, desarrolla el programa informático BKG 9.8 para jugar backgammon, que vence al entonces campeón mundial Luigi Villa.

Fue el primer programa de computadora en derrotar a un campeón mundial humano en un juego estratégico complejo, tomando decisiones estratégicas sólidas basándose en cálculos probabilísticos y evaluaciones profundas de las posiciones del tablero.

Recomendación sobre la ética de la IA

La Unesco elabora la primera "Recomendación sobre la ética de la inteligencia artificial" adoptada por sus 193 Estados miembros. El documento establece un marco global para guiar el desarrollo y uso ético de la IA. Aboga por que los sistemas de IA respeten los derechos humanos, la dignidad y el medio ambiente. Establece principios clave como la transparencia, la rendición de cuentas y la inclusión, asegurando que la IA se desarrolle de manera justa y sin perpetuar desigualdades. También promueve el uso de la IA para el bien común, abarcando áreas como la educación, la salud y la sostenibilidad.

Es el primer estándar ético globalmente adoptado en este campo. Marca un esfuerzo colectivo para regular y guiar el avance de la IA, buscando prevenir impactos negativos como la discriminación, la invasión de la privacidad o el mal uso de datos. Esta recomendación es un paso crucial hacia un desarrollo tecnológico responsable, colocando la ética en el centro del debate sobre el futuro de la inteligencia artificial.

Conferencia de Dartmouth

John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizan la conferencia donde se acuña el término "Inteligencia Artificial".

Marcó el nacimiento oficial del campo de la IA como disciplina académica.

AlexNet, Red Neuronal Convolucional (CNN)

La red neuronal AlexNet, desarrollada por Alex Krizhevsky y su equipo, gana la competencia de clasificación de imágenes ImageNet, con una precisión significativamente superior a la de los modelos existentes, reduciendo el error en más de un 10%.

El éxito en la competencia demostró el poder de las redes neuronales profundas para abordar problemas complejos en el procesamiento de imágenes.

Unimate, primer robot industrial

General Motors instala Unimate, el primer robot industrial, en una línea de ensamblaje de su planta en Ewing, Nueva Jersey, para realizar tareas repetitivas o peligrosas. Se usa en la metalistería y la soldadura y se controla mediante órdenes almacenadas en un tambor magnético.

Marcó el comienzo de la utilización de la IA en la industria.