Want to make creations as awesome as this one?

Transcript

Unidad 1

Introducción a la IA

START

y Algoritmos Básicos de Machine Learning

PRESENTACIóN VAPORWAVE

START

[Contextualiza tu tema]

Taller: Implementación de algoritmos básicos de Machine Learning.

K-Nearest Neighbors (KNN): teoría y aplicaciones.

Máquinas de Soporte Vectorial (SVM): teoría y aplicaciones.

Algoritmos de regresión lineal: teoría y aplicaciones.

Introducción a Machine Learning: conceptos básicos.

Diseño de sistemas expertos: bases de conocimiento y motores de inferencia.

Introducción a los sistemas expertos: definición y componentes.

Paradigmas de la IA: simbólica vs. conexionista

Historia de la IA y sus hitos principales.

Introducción a la IA: definición y aplicaciones.

ÍNDICE

Unidad 1

01.

02.

03.

04.

05.

06.

07.

08.

09.

10.

Introducción a la IA: definición y aplicaciones.

[Tema 1.1]

¿Qué es la Inteligencia Artificial?

Sistemas que piensan racionalmente

«El estudio de las facultades mentales mediante el uso de modelos computacionales». (Charniak y McDermott, 1985)

Sistemas que actúan racionalmente

«La Inteligencia Computacional es el estudio del diseño de agentes inteligentes». (Poole et al., 1998)

Definiciones

Sistemas que actúan como humanos

«El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor». (Rich y Knight, 1991)

Sistemas que piensan como humanos

«El nuevo y excitante esfuerzo de hacer que los computadores piensen… máquinas con mentes, en el más amplio sentido literal». (Haugeland, 1985)

Objetivos de la IA

La inteligencia artificial (IA) se ha convertido en una disciplina fundamental dentro de la ciencia y la tecnología, con el objetivo de desarrollar sistemas capaces de realizar tareas que, cuando son llevadas a cabo por seres humanos, requieren de inteligencia.

Desarrollar sistemas que piensen como humanos

Desarrollar sistemas que actúen como humanos

+ INFO

Desarrollar sistemas que piensan racionalmente

Desarrollar sistemas que actúen racionalmente

Computación

Neurociencia

Matemáticas

Economía

Filosofía

Fundamentos de la I.A

Linguistica

Cibernética

Psicología

Fundamentos de la I.A

Historia de la IA y sus hitos principales.

[Tema 1.2]

Linea del tiempo

[Tema 1.2]

La inteligencia artificial (IA) ha experimentado un notable desarrollo a lo largo de las décadas, marcando numerosos hitos que han definido su evolución y aplicación en diversas áreas. A continuación, se presentan algunos de los hitos más importantes en la historia de la inteligencia artificial:

1950

1956

1961

1966

1972

1979

1981

1987

1992

1997

y continua....

2005

2011

2014

2016

2017

y continua....

2005

2011

2014

2016

2017

Test de Turing

Prueba propuesta por Alan Turing en 1950, la cual consistía en que un humano interrogase a una computadora por medio de un teletipo; la prueba se consideraba aprobada si el evaluador era capaz de determinar si una computadora o un humano era quien había respondido las preguntas en el otro extremo de la terminal.

Test de Turning

Para poder superar la prueba la maquina debería poseer las siguientes capacidades:

Procesar un lenguaje natural

Representar el conocimiento

Razonar automática_mente

Autoaprendi_zaje de la máquina

Paradigmas de la IA: simbólica vs. conexionista

[Tema 1.3]

Introducción

[Clasificación de la IA]

Existen diferentes maneras de clasificar la inteligencia artificial y diferentes conceptos que se usan de forma confusa y de forma indistinta.

Fuerte

InteligenciaArtificial

Débil

IA Simbólica

Definición

+INFO

Es un enfoque de la inteligencia artificial que se basa en el uso de símbolos y reglas explícitas para representar el conocimiento y realizar el razonamiento. En este paradigma, el conocimiento se codifica en forma de símbolos (como palabras, números y otros elementos de datos) y reglas lógicas que describen las relaciones y procesos entre estos símbolos.

  • Aprendizaje
  • Flexibilidad
  • Escalabilidad
  • Precisión
  • Facilidad de implementación

Ventajas y limitaciones

  • Claridad y transparencia

Ventajas

Limitaciones

IA Conexionista

+ INFO

Es un enfoque de la inteligencia artificial que se inspira en el funcionamiento del cerebro humano y se basa en el uso de redes neuronales artificiales para procesar y aprender de grandes volúmenes de datos. En este paradigma, las redes neuronales consisten en capas de nodos (neuronas) interconectados que trabajan juntos para reconocer patrones, generalizar a partir de ejemplos y hacer predicciones.

Ventajas y limitaciones

  • Capacidad de aprendizaje
  • Flexibilidad y adaptabilidad
  • Rendimiento en tareas complejas.
  • Interpretabilidad.
  • Requerimientos de datos
  • Computación intensiva

La IA simbólica y la IA conexionista representan dos enfoques fundamentales en la inteligencia artificial, cada uno con sus propias fortalezas y debilidades. La elección entre estos paradigmas depende del tipo de problema a resolver, la disponibilidad de datos y los recursos computacionales. Mientras que la IA simbólica es más adecuada para problemas bien definidos y donde la transparencia es crucial, la IA conexionista sobresale en el manejo de grandes volúmenes de datos y en tareas que requieren reconocimiento de patrones complejos y aprendizaje continuo.

Conclusión

Introducción a los sistemas expertos

[Tema 1.4]

Computación

Inteligente

Rama de la Inteligencia Artificial que agrupa técnicas y paradigmas cuyo objetivo es el de trabajar sobre información incompleta, imprecisa o con ruido, obteniendo a partir de ésta soluciones tratables.

Soft Computing is an emerging approach to computing which parallels the remarkable ability of the human mind to reason and learn in an environment of uncertainty and imprecision. (Lofti A. Zadeh, 1994)

Computación inteligente

Razonamiento probabilístico

Computación evolutiva

Lógica Difusa

Redes neuronales artificiales

Computación Inteligente

El módulo de adquisición de conocimiento

Definición

Características

El término de sistema experto se refiere a un software que “imita el comportamiento de un experto humano en la solución de un problema en un campo particular”.

La base de conocimientos

La base de hechos o datos

El mecanismo o motor de inferencia

La interfaz sistema-usuario

Conciencia de sus limitaciones.

Características

de los sistemas expertos

Habilidad para llegar a una solución a los problemas en forma rápida y certera.

Habilidad para explicar los resultados a la persona que no cuenta con ese conocimiento.

Habilidad para aprender de las experiencia.

Habilidad de reestructurar el conocimiento para que se adapte al ambiente.

Diseño De S.E bases de conocimiento y motores de inferencia.

[Tema 1.5]

Base del

Conocimiento

Es un componente esencial de un sistema experto. Contiene toda la información específica y las reglas necesarias para que el sistema pueda tomar decisiones y proporcionar recomendaciones. Su diseño y estructura son cruciales para el desempeño efectivo del sistema.

Componentes

Hechos

Reglas

Ontologías

Heurísticas

Diseño y Estructuración

de la Base de Conocimientos

Representación del Conocimiento:

Adquisición del Conocimiento

Data

Este proceso implica obtener el conocimiento de expertos humanos y estructurarlo adecuadamente en la base de conocimientos.

Data

Es fundamental seleccionar la representación adecuada del conocimiento, que puede incluir reglas de producción, marcos, redes semánticas, entre otros.

Mantenimiento y Actualización

La base de conocimientos debe ser flexible y actualizable para incorporar nuevos hechos y reglas a medida que se descubre nueva información o se refina el conocimiento existente.

Data

Motores de

inferencia

Es el componente del sistema experto que procesa la base de conocimientos para tomar decisiones y derivar conclusiones. Utiliza técnicas de razonamiento lógico para evaluar las reglas y hechos almacenados en la base de conocimientos.

Comienza con una hipótesis o objetivo y trabaja hacia atrás aplicando reglas para determinar si los hechos conocidos pueden soportar esa hipótesis. Es un proceso de "objetivos a datos."

Este método de razonamiento comienza con los hechos disponibles y aplica reglas para derivar nuevos hechos y conclusiones. Es un proceso de "datos a objetivos."

Tipos de inferencia

Hacia Adelante

Hacia Atrás

Funciones del Motor de Inferencia

Evaluación de Reglas.

Resolución de Conflictos

Generación de Explicaciones

Aprendizaje Automático.

Introducción a Machine Learning

[Tema 1.6]

Introducción

Estamos viviendo la Era de los datos, con el enorme crecimiento en el usode herramientas digitales como internet y los dispositivos móviles, estamos generandodatos constantemente, con cada movimiento que damos navegando en internet o interactuando en las redes sociales como Facebook o Twitter

El ambito de los

modelos predictivos

+INFO

  • Conjunto de algoritmos estadísticos
  • Programados con una herramienta estadística
  • Aplicados a datos históricos
  • Devuelven una función matemática
  • Útil para un contexto concreto o una empresa

Datos históricos

  • El modelo se contruye sobre datos pasados
  • Podemos averiguar los datos que faltan
  • Constantemente se dividirán los datos en dos conjuntos
    • Prueba
    • Validación

80%

80%

20%

20%

Contribución al modelo

Tiempo utilizado

Modelización

Limpieza de datos

Tareas y tiempo invertido

Estadística descriptiva

Se denominan estadísticos a aquellos valores que resumen la información contenida en una muestra completa de datos.

Recopilar datos

Organizar los datos

+ INFO

Enviar datos

Describir los datos

Interpretar datos

Resumen de datos

Métodos gráficos

Estadística

Descriptiva

Es un conjunto de métodos estadísticos que se utilizan para describir las principales características de los datos; estos métodos son gráficos o numéricos.

Tabla

Descriptivas importantes

Otras herramientas

Nominales

Variables

Clasificación

Variables

Data

Data

Continuas

Data

Coeficiente de correlación

El coeficiente de correlación se utiliza a menudo durante la fase de análisis exploratorio de los datos para comprender más allá de la definición de una sola variable y cómo se relaciona con las otras variables del conjunto.La correlación permite determinar qué tan fuertemente se relacionan los pares de variables; es decir, la correlación permite analizar dos variables y luego extraer la fuerza de la relación entre ellas.

Observa una muestra de datos y extrae conclusiones que aplica al conjunto a través de inferencias.Los análisis que ejecuta este tipo de estadística quieren ser capaces de predecir el comportamiento de unas informaciones determinadas.

Inferencia

Estadística

+ INFO

Son valores aleatorios que sirven para identificar los márgenes de error que pueden existir.

Se trata de validar aquellas conclusiones que se han construido respecto a esa porción de datos estudiados.

Categorías

Prueba de hipótesis

Intervalos de confianza

Algoritmos de regresión lineal.

[Tema 1.8]

Teoría de la Regresión Lineal

Fórmula

La regresión lineal es un método estadístico utilizado para modelar la relación entre una variable dependiente (o variable de respuesta) y una o más variables independientes (o predictoras) utilizando una línea recta. La fórmula general para un modelo de regresión lineal simple es:

Objetivo

Es encontrar los valores de los coeficientes que minimicen la suma de los cuadrados de los errores (diferencias entre los valores observados y los valores predichos por el modelo).

donde es el valor predicho por el modelo para la observación i y m es el número total de observaciones.

Método de mínimos cuadrados

Para estimar los coeficientes de la regresión, se utiliza el método de mínimos cuadrados, que minimiza la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por el modelo. La función de costo (o función de pérdida) a minimizar es:

Aplicaciones de la Regresión Lineal

Economía y finanzas

Ciencias sociales

Medicina y biología

Ingeniería y física

Marketing y negocios

Máquinas de Soporte Vectorial (SVM).

tema 1.8

Son un conjunto de algoritmos de aprendizaje supervisado utilizados para clasificación y regresión. Las SVM buscan encontrar un hiperplano en un espacio de alta dimensión que separe las clases de datos con el mayor margen posible.

Definición

maquina de soporte vectorial

Principios

básicos

+INFO

+INFO

+INFO

Hiperplano

Margen

Data

máximo

Data

de separación

Kernel

Trick

Data

Función de costo

El problema de optimización de una SVM se puede formular como:

Aplicaciones de las

Máquinas de Soporte Vectorial

Biomedicina

Reconocimiento de Imágenes y Visión por Computadora

Finanzas.

Procesamiento del Lenguaje Natural (NLP)

Industria y Manufactura

K-Nearest Neighbors (KNN)

tema 1.9

Definición

Es un algoritmo de aprendizaje supervisado utilizado tanto para problemas de clasificación como de regresión. La idea central del KNN es que un punto de datos será similar a sus "vecinos" más cercanos. En KNN, la clasificación o predicción de un nuevo punto se realiza considerando los k puntos de datos más cercanos en el espacio de características.

Principios

básicos

Distancia

Elección de k

Clasificación

Regresión

Predicción

Almacenamiento

Funcionamiento del

algoritmo

Cálculo de Distancias

Selección de Vecinos

Aplicaciones

del K-Nearest Neighbors (KNN)

Reconocimiento de Imágenes:

Recomendación de Productos

Análisis de Datos Biomédicos

Detección de Fraude

Minería de Datos en Marketing

Sitios de interés

Recursos disponibles en donde podemos encontrar grandes volumenes de datos

Repositorio UCI

Yahoo Finance

Kaggle

Medical Dataset

Common Crawl

¿Dónde encontrar más?

[1] R. E. Bellman, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, 5th ed., Upper Saddle River, NJ, USA: Prentice Hall, 2010.[2] A. Ng, "Feature selection, L1 vs. L2 regularization, and rotational invariance," in Proc. 21st Int. Conf. Mach. Learn. (ICML), Banff, AB, Canada, 2004, pp. 78-85.[3] C. Cortes and V. Vapnik, "Support-vector networks," Mach. Learn., vol. 20, no. 3, pp. 273-297, Sept. 1995.[4] T. Cover and P. Hart, "Nearest neighbor pattern classification," IEEE Trans. Inf. Theory, vol. 13, no. 1, pp. 21-27, Jan. 1967.[5] E. H. Shortliffe and B. G. Buchanan, "A model of inexact reasoning in medicine," Math. Biosci., vol. 23, no. 3-4, pp. 351-379, Dec. 1975.

Referencias

¡Gracias!

Subtítulo

Subtítulo

Diagnóstico Médico: KNN ayuda a clasificar y predecir enfermedades basándose en datos de pacientes, como resultados de pruebas médicas y características demográficas.Análisis de Genomas: Se utiliza en la investigación genética para clasificar secuencias de ADN y ARN.

Hubert Dreyfus publica “Lo que no pueden hacer los ordenadores”: La obra del filósofo estadounidense actúa como revulsivo del entusiasmo inicial en torno a la inteligencia artificial. No es la única crítica en estos años. La financiación se reduce; comienza el invierno.

Segmentación de Clientes: KNN se utiliza para agrupar clientes en segmentos basados en características similares, como comportamiento de compra y datos demográficos.Predicción de Ventas: Ayuda a prever ventas futuras basándose en patrones históricos de ventas y factores relacionados.

Un ordenador vence al backgammon: El profesor en la Universidad Carnegie Mellon (EE.UU.), Hans Berliner crea el programa informático BKG 9.8, que vence al entonces campeón mundial, Luigi Villa. La victoria impulsa nuevos proyectos para juegos más complejos.

Sistemas de Recomendación: KNN se utiliza para recomendar productos a los usuarios en función de las similitudes con otros usuarios y sus preferencias. Por ejemplo, en plataformas de comercio electrónico y servicios de streaming.

La neurociencia consiste en el estudio del sistema neurológico, y en especial del cerebro. Las neuronas y las sinapsis del cerebro están activas simultáneamente, mientras que las computadoras actuales tienen una o como mucho varias UCP. Por tanto, incluso sabiendo que un computador es un millón de veces más rápido en cuanto a su velocidad de intercambio, el cerebro acaba siendo 100.000 veces más rápido en lo que hace.

Subtítulo

Para contar historias de forma ordenada, jerárquica, estructurada y concisa. Estos son los cuatro pilares para llevar a cabo una presentación exitosa.

Martin Fischles y Oscar Firschein describen los atributos de un agente inteligente: Su trabajo identifica y define muchas más características de los sistemas inteligentes además de la capacidad de comunicarse. Abre nuevas vías de investigación para la inteligencia artificial.

Watson gana Jeopardi!: El ordenador desarrollado por IBM bate a los campeones humanos del concurso de televisión estadounidense de preguntas y respuestas, Jeopardi! Nuevos avances en el procesamiento del lenguaje natural.

A partir de esta interpretación, a través de herramientas estadísticas, podemos hacer inferencias sobre poblaciones a través de pequeños espectáculos.

Libratus vence al póker: Creado en la Universidad de Carnegie Mellon (EE.UU), el software se impone a rivales humanos en un torneo múltiple de Texas hold’em para dos personas. Supone un hito por la información imperfecta que caracteriza al póker.

Transacciones Financieras: KNN se emplea para identificar transacciones fraudulentas comparando patrones de transacciones con otros ejemplos históricos.Análisis de Anomalías: Ayuda a detectar comportamientos anómalos en datos de diferentes dominios, como en ciberseguridad y control de calidad industrial.

Deep Blue vs. Garri Kaspárov: Desarrollado por IBM, este ordenador ganó al entonces campeón mundial de ajedrez Garri Kaspárov. La primera partida, en 1996, la perdió la máquina. Pero una versión mejorada vence al ajedrecista ruso en 1997.

Clasificación de Dígitos Manuscritos: KNN se utiliza en sistemas de reconocimiento óptico de caracteres (OCR) para clasificar dígitos manuscritos en imágenes.Reconocimiento Facial: Se aplica en sistemas de seguridad para identificar y verificar rostros humanos en imágenes y videos.

  • Utiliza reglas explícitas y estructuras de datos simbólicas.
  • Emplea lógica formal y razonamiento deductivo.
  • Facilita la comprensión y verificación de los procesos de toma de decisiones.
  • Ejemplos comunes incluyen sistemas expertos y sistemas basados en reglas.

Características

Japón comienza el proyecto “Quinta Generación”: EL país nipón invierte en una nueva generación de ordenadores que utilicen técnicas de inteligencia artificial. Buscan crear máquinas que sean capaces de aprender y traducir automáticamente de un idioma a otro.

Teorema del límite central

"Una muestra suficientemente grande de una población con distribución arbitraria tendrá estadístico media con distribución normal”.

Conferencia de Dartmouth: Los científicos Marvin L. Minsky, John McCarthy y Claude Shannon reúnen a expertos en teoría de la información, redes neuronales, computación, abstracción y creatividad. El encuentro se considera el germen de la inteligencia artificial y donde se acuña por primera vez el término.

Un ordenador al volante: Un coche autónomo desarrollado por la Universidad de Stanford (EE.UU) gana una competición de vehículos robot tras conducir 212 kilómetros de desierto sin apoyo humano.

Objetivos

Los objetivos de la IA pueden clasificarse en diferentes enfoques, cada uno con una perspectiva única sobre cómo debe comportarse y operar un sistema inteligente..

Los Economistas formalizaron el problema de la toma de decisiones para maximizar los resultados esperados.

Se enfoca en crear agentes inteligentes que puedan tomar decisiones óptimas en función de los objetivos y restricciones que se les impongan. Estos sistemas utilizan modelos de optimización y teorías de decisión para actuar de la manera más eficiente y eficaz posible

Detección de Fraude: Las SVM se emplean para detectar transacciones fraudulentas en sistemas financieros analizando patrones inusuales en los datos de transacciones.Análisis de Riesgo: Ayudan a predecir el riesgo crediticio y el rendimiento de las inversiones basándose en datos históricos y actuales del mercado.

En un problema de clasificación, el nuevo punto se asigna a la clase más frecuente entre sus k vecinos más cercanos. Es decir, se toma una votación mayoritaria entre las clases de los vecinos.

Este enfoque está basado en la lógica formal y las reglas racionales de inferencia. Los sistemas diseñados para pensar racionalmente están programados para seguir principios lógicos y matemáticos estrictos en sus procesos de razonamiento. El objetivo es que estos sistemas puedan derivar conclusiones correctas a partir de premisas claras y específicas, garantizando la coherencia y precisión en sus inferencias.

Los Psicólogos adoptaron la idea de que los humanos y los animales podían considerarse como máquinas de procesamiento de información.

Los filósofos (desde el año 400 A.C.) facilitaron el poder imaginar la I.A. al concebir la idea de que la mente es de alguna manera como una máquina que funciona a partir del conocimiento codificado en un lenguaje interno, y al considerar que el pensamiento servía para seleccionar la acción a llevar a cabo.

AlphaGo vence al Go: Un programa desarrollado por Google DeepMind, vence al campeón mundial del histórico juego Go. Es uno de los grandes hitos del aprendizaje profundo, una de las técnicas más relevantes en este momento en inteligencia artificial.

Los informáticos proporcionaron los artefactos que hicieron posible la aplicación de la I.A.. Los programas de IA tienden a ser extensos y no podrían funcionar sin los grandes avances en velocidad y memoria aportados por la industria informática.

  • Algoritmos supervisados
  • Algoritmos no supervisados

Algorítmos estadísticos

También podemos presentar los datos a través de gráficos estadísticos donde las visualizaciones resumen o simplifican lo que constituyen los datos

El objetivo aquí es diseñar sistemas que no solo piensen como humanos, sino que también puedan interactuar y realizar tareas de la misma manera que lo haría una persona. Esto incluye la capacidad de comunicarse en lenguaje natural, reconocer emociones y expresiones faciales, y realizar tareas físicas a través de la robótica

El parámetro k representa el número de vecinos más cercanos que se considerarán para clasificar o predecir un nuevo punto. El valor de k se selecciona en función del conjunto de datos y el problema específico. Un valor pequeño de k puede hacer que el modelo sea sensible al ruido en los datos, mientras que un valor grande de k puede hacer que el modelo sea demasiado general y pierda detalles importantes.

Libratus vence al póker: Creado en la Universidad de Carnegie Mellon (EE.UU), el software se impone a rivales humanos en un torneo múltiple de Texas hold’em para dos personas. Supone un hito por la información imperfecta que caracteriza al póker.

Además de recopilar, podemos organizar los datos con herramientas estadísticas

AlphaGo vence al Go: Un programa desarrollado por Google DeepMind, vence al campeón mundial del histórico juego Go. Es uno de los grandes hitos del aprendizaje profundo, una de las técnicas más relevantes en este momento en inteligencia artificial.

Alan Turing publica “Computing Machinery and Intelligence”: Tras descifrar la máquina enigma durante la Segunda Guerra Mundial y sentar las bases de la informática actual, Turing plantea en un artículo académico si las máquinas pueden pensar y presenta el Test de Turing.

Reconocimiento de Objetos: Las SVM se aplican en la detección y clasificación de objetos en imágenes, como la identificación de rostros, vehículos y otros objetos en tiempo real.Clasificación de Imágenes: Se utilizan para clasificar imágenes en diferentes categorías, como en sistemas de recomendación de imágenes y en la indexación de bases de datos de imágenes.

Las estadísticas nos permiten recopilar datos; es decir, nos proporciona herramientas para técnicas de muestreo

Este enfoque se centra en replicar los procesos cognitivos humanos dentro de una máquina. La idea es crear sistemas que puedan razonar, aprender y comprender de manera similar a como lo hacen los seres humanos. Esto incluye el modelado de aspectos como la percepción, la memoria, el aprendizaje y la toma de decisiones.

Los lingüistas demostraron que el uso del lenguaje se ajusta a ese modelo.

ELIZA: Desarrollado en el MIT, fue uno de los primeros programas en procesar lenguaje natural y conversar a través de una serie de frases programadas.

Esta descripción nos ayuda a comprender cómo se organizan los datos para facilitar el trabajo de toma de decisiones

Se refiere a sistemas de IA que están diseñados para llevar a cabo tareas específicas y limitadas, sin exhibir una inteligencia general comparable a la de los seres humanos. Estos sistemas están programados para realizar una tarea específica y, aunque pueden ser altamente efectivos en esa tarea particular, carecen de la capacidad de aprender y adaptarse por sí mismos.

Diagnóstico de Enfermedades: Las SVM se utilizan para clasificar imágenes médicas y datos de pacientes con el fin de diagnosticar enfermedades como el cáncer, la diabetes y enfermedades cardíacas.Predicción de Biomarcadores: Ayudan a identificar biomarcadores relevantes a partir de datos genómicos y proteómicos para el diagnóstico y tratamiento de enfermedades.

Las matemáticas proporcionaron las herramientas para manipular tanto las aseveraciones de certeza lógicas, como las inciertas de tipo probabilista. Asimismo, prepararon el terreno para un entendimiento de lo que es el cálculo y el razonamiento con algoritmos.

Un ordenador supera con éxito el Test de Turing: El programa, llamado Eugene, fue desarrollado en Rusia y se hizo pasar por un niño de 13 años.

Características
  • Basada en redes neuronales artificiales que simulan el comportamiento de las neuronas biológicas.
  • Utiliza aprendizaje automático para ajustar los pesos de las conexiones neuronales.
  • Capaz de aprender y generalizar a partir de grandes conjuntos de datos.

En un problema de regresión, la predicción para el nuevo punto es el promedio de los valores de salida de sus k vecinos más cercanos.

Watson gana Jeopardi!: El ordenador desarrollado por IBM bate a los campeones humanos del concurso de televisión estadounidense de preguntas y respuestas, Jeopardi! Nuevos avances en el procesamiento del lenguaje natural.

El proyecto de Japón “Quinta Generación”, termina sin apenas resultados: Tras años de trabajo, la iniciativa no alcanza los objetivos previstos. El fracaso del país asiático se suma a otras desilusiones del momento. Merman los fondos para investigación.

Un ordenador supera con éxito el Test de Turing: El programa, llamado Eugene, fue desarrollado en Rusia y se hizo pasar por un niño de 13 años.

Marvin Minsky publica “Pasos hacia la inteligencia artificial”: El científico recoge los primeros pasos del campo de la inteligencia artificial en un trabajo académico. Sirve de inspiración a otros investigadores e impulsa nuevas iniciativas.

Se refiere a sistemas de IA que tienen la capacidad de comprender, aprender, razonar y tomar decisiones de manera similar a los seres humanos. La IA fuerte aspira a igualar o superar la inteligencia humana en todos los aspectos. Estos sistemas son capaces de adaptarse a nuevas situaciones, resolver problemas complejos y tener una comprensión contextual del mundo que los rodea.

La teoría de control se centra en el diseño de dispositivos que actúan de forma óptima con base en la retroalimentación que reciben del entorno en el que están inmersos. Inicialmente las herramientas matemáticas de la teoría de control eran bastante diferentes a las técnicas que utilizaba la IA, pero ambos campos se están acercando.

Control de Calidad: Las SVM se aplican para detectar defectos en productos manufacturados mediante el análisis de datos de sensores y cámaras.Mantenimiento Predictivo: Ayudan a predecir fallas en maquinaria y equipos mediante el análisis de datos históricos y de sensores.

Otras medidas de distancia pueden incluir la distancia Manhattan o la distancia Minkowski.

La medida de distancia más comúnmente utilizada en KNN es la distancia Euclidiana. Para dos puntos

Un ordenador al volante: Un coche autónomo desarrollado por la Universidad de Stanford (EE.UU) gana una competición de vehículos robot tras conducir 212 kilómetros de desierto sin apoyo humano.

Clasificación de Textos: Las SVM se utilizan para tareas como la clasificación de correos electrónicos en spam o no spam, y la categorización de artículos de noticias.Análisis de Sentimientos: Ayudan a determinar el sentimiento de textos como opiniones de productos, reseñas y publicaciones en redes sociales.