Want to create interactive content? It’s easy in Genially!

Get started free

Deeplearning

M scs

Created on March 20, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Transcript

1986
1957
1943

Courte histoire du deep-learning pour mieux comprendre l'IA

Quel impact en 2024 ?

Les IA génératives utilisent des neurones formel comme base dans des configurations plus complexes. Elle reçoit différents messages et propose une sortie en fonction de ces messages et du poids des connexions neurales. Tout mot formulé dans une requête à son importance

X1 ou X2
W2 = 1.0
W1 = 1.0
T = 0.5
X2
X1

Le neurone formel reçoit des signaux d'entrée, les additionne et, si la somme dépasse un certain seuil, il produit un signal de sortie.

Théorisation du neurone formel

1943

McCulloch et Pitts ont conceptualisé le neurone formel, un modèle mathématique simplifié imitant le fonctionnement des neurones biologiques proposant des solutions à des problématiques binaires.

Quel impact en 2024 ?

ChatGPT, héritier moderne du perceptron, s'ajuste via des retours d'information, générant des réponses précises, mais reste sujet à des erreurs nécessitant des corrections continues.Les Chabots, bien que générant des résultats impressionants, leurs productions doivent être considées avec précautions.

Inspiré du renforcement synaptique, ce mécanisme pose les bases l'apprentissage automatique des IA. A cet instant ce système ne pouvait traiter que des données mathématiques et prévisivles.

Avec le perceptron, Rosenblatt a créé un mécanisme d'ajustement automatique des connexions entre les neurones suite à des générations erronées de résultats.

L'agorithme d'auto-correction

1957

Figure 2 : Fonctionnement du Deep-learning en quelquels points

Quel impact en 2024 ?

Développement d'une méthode qui permet à un vaste réseau de neurones formels multi-couches de s'entrainer et d'ajuster le poids de ses réseaux de neuronnes

Naissance du Deeplearning

Même si le modèle a changé, les IA génératives fonctionnent selon ce processus. Nos moyens techniques ont permis à ces modèles d'être entrainés et ajustés sur des milliards de données. Toutefois, nous ne savons pas sur lesquelles et par conséquent, leur fiabilité peuvent et doivent être remises en causes.

1986

Développe la base de l'apprentissage profond "deep learning" utilisé dans les IA. Accumulation de variation, de nombreuses couches