Éléments pour l'IA en classe | Historique de l'IA

Historique de l'IA

L’IA est en réalité une discipline jeune d’une soixante d’années,qui réunit des sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain.

Elle a connu des hauts et des bas, les fameux hivers de l'IA⛄, été la risée des traducteurs - my taylor is riche - avant de se mettre à "marcher".

Cédric Villani

Mathématicien français et ancien député, médaillé Fields en 2010

L’intelligence artificielle est une révolution technologique. Elle génère enthousiasmes, inquiétudes et fantasmes. Mais comment est-elle née ? Le scientifique Cédric Villani, qui a rédigé un rapport parlementaire sur l'IA, éclaire l'histoire si récente de ce bouleversement technologique. 4 épisodes des 12 minutes.

Algorithmes et société, une prophétie pour rien
Dans les années 1990, rares sont celles et ceux qui s’intéressent aux algorithmes et à l’intelligence artificielle. Même du côté de la recherche scientifique, une minorité seulement a une vague idée de ce que peut être l’IA.
Kasparov contre Deep Blue : la partie reprend
Entre progrès continu des moyens de calcul et confrontation à grand spectacle, l’IA connaît un véritable tournant dans la partie d’échecs qui se joue, en 1997, entre l’homme, Garry Kasparov, et la machine, Deep Blue. S’en suit la période de grande numérisation.
Coup de théâtre : la résurrection de l'apprentissage profond
Comment l'apprentissage profond, utilisant des réseaux de neurones et des processeurs graphiques, devient-il plus fiable que l'humain pour analyser écriture, image, parole et données ?
L'agent conversationnel par qui le chaos arriva
En 2022 naît un chat, un chatbot ou agent conversationnel : ChatGPT de la société OpenAI. L’IA, prolongement inéluctable de la révolution informatique, aura plongé l’humanité dans la vertigineuse confusion d’identité et de réalité. Nul ne sait désormais où elle mènera.
source : Yann Houry, Lycée français international de Hong Kong
Et si l'IA s'est soudain mise à mieux fonctionner, c'est grâce aux joueurs et une carte graphique…

Les réseaux de neurones

L’idée des réseaux de neurones prend donc un peu de corps avec Frank Rosenblatt et son fameuxPerceptron dès 1958. Perceptron est une sorte de neurone artificiel capable d'apprendre à reconnaître des formes simples.

Ce fut un petit succès… jusqu’à ce que Marvin Minsky et Seymour Papert publient en 1969 un livre qui cassait un peu l’ambiance en montrant les limites sévères du perceptron.
Résultat : hiver nucléaire sur le domaine pendant une décennie ou deux.
Autrement dit la théorie existait déjà, mais la pratique n'en était qu'aux balbutiements. Il manquait quelque chose, et ce quelque chose c'était lesdatas caractérisées.

Big data

Sans le Big Data (données immenses), le Machine Learning et l’intelligence artificielle seraient restées des sciences de laboratoire comme elles le sont depuis 50 ans.

Les données, et encore plus lorsqu'elles sont catégorisées, sont l’instrument qui permet à l’IA de comprendre et d’apprendre.

C’est le Big Data qui permet d’accélérer la courbe d’apprentissage et permet l’automatisation des analyses de données. Plus un système Machine Learning reçoit de données, plus il apprend et plus il devient précis.

Aspirer le Web

Il existe des sites spécialisés, y compris en opensource, qui proposent une copie quasi complète de tout le Web.
Common Crawl est une organisation à but non lucratif 501(c)(3) fondée en 2007 qui ajoute de 3 à 5 milliards de nouvelles pages chaque mois.

commoncrawl.org/

100 disques durs de 2 Tera pour le Web indexé et2.5 milliards pour le Web profond.

Biais des grandeurs

Parler de l'IA nécessite aussi d'évoquer la difficulté que nous avons à penser l'immensité, les grands nombres.

Prenons les distances.

Un mètre, une centaine de mètres, un millier, un million, un milliard…
1 m
Bras tendu
100 m
Terrain de foot
1 000 m
Village
1 000 000 m
Paris → Rome
1 000 000 000 m
Terre → Jupiter

Deux autres exemples dans la compréhension du vivant pour faire une analogie. Il s'agit de notre fenêtre de perception visuelle, des couleurs ou des tailles ou des particules, par exemple le photon gamma…

Ce qui est visible par nos yeux
la lumière visible émise par le soleil

Nous ne voyons pas dans l'infrarouge (cas des serpents) ou dans l'ultra violet, et si nous pouvons apercevoir des objets de moins de 0,1 mm ou a plus de 10 km, nous n'en avons pas de perception spatiale.

Telle étoile est-elle plus ou moins loin que telle autre ?

La lumière visible émise par le soleil n'est qu'une partie de celle émise.
Il émet des photons, ces particules qui voyagent à 300.000 kilomètres par seconde et sont si fines que certaines peuvent nous traverser. Et quand ce sont des photons gamma, leur traversée n'est pas sans risque... y compris de fake news.

Sur ce sujet, l'on pourra par exemple écouter le podcast de Xavier de la Porte, Pourquoi la nanoparticule s’est-elle retrouvée dans tous les complots ?

Podcast

Un ordinateur est-il fiable ?

Outre les possibles erreurs de calcul liées à de sombres histoires de virgules flottantes, se posent également les problèmes de fuites ou de saturation de mémoire. Les fuites de mémoire se produisent lorsque les programmes ne parviennent pas à libérer les ressources mémoire dont ils n’ont plus besoin. Cela se traduit par des problèmes de performances. En termes simples, votre ordinateur manque de mémoire.

Un exemple

Le nombre maximum de lignes qu'un tableur Excel peut afficher et d'à peine un peu plus d'un million, plus exactement 1 048 576 lignes et 16 384 colonnes. Un tout petit nombre comparé aux données traitées par l'IA.

Notons ici égalementqu'un tableur, comme tout ordinateur, fait des erreurs.Et des erreurs non pas par erreur mais par sa programmation même.

Testons un calcul simple :1 + 0.000123456789012345

Ce calcul qu'un élève de CM2 saurait faire, un tableur de type Excel ou OpenOffice le fait-il ?

Libre office

Excel

Dans le même ordre d'idées, un calcul de type 0.1 + 0.2, au lieu d'obtenir un 0.3 parfait, donne quelquefois un résultat comme 0.30000000000000004.

Ou encore, calculer 1/824633702441.0.
Simple me direz-vous !
Et pourtant une erreur de division à virgule flottante dans ses processeurs Pentium a entraîné leur remplacement inconditionne.
Prix de l’erreur : 475 millions de dollars.

Pourquoi une IA fait-elle des erreurs ?

Étant donné la complexité des systèmes utilisant l’intelligence artificielle, les sources d’erreur peuvent être multiples.

CNIL erreurs IA 1

CNIL erreurs IA 2

Camus. L'étranger

Camus. L'étranger

L'IA est en train de s'empoisonner ?

L'IA est en train de s'empoisonner elle-même ?

source : underscore

Les joueurs en ligne

Nvidia Si l'IA a connu ce développement c'est grâce à un seul acteur, Nvdia, le célèbre fabriquant de cartes graphiques. Nvidia récolte ainsi les fruits d’une vision de l’informatique “accélérée”, couplant les CPU avec des GPU pour contourner les limites de la loi de Moore.

La petite entreprise californienne créée avec 40 000 dollars vaut désormais plus de 1000 milliards.

Contrairement au CPU qui exécute les instructions des programmes informatiques, le GPU créé par Nvidia se concentre sur le calcul des visuels et leur rendu.

Le groupe américain historiquement dédié aux jeux vidéo envahi désormais les data centers, qui représentent désormais plus des trois quarts de son activité et 80% du marché global de l'IA.

L’IA générative requière une immense puissance de calcul pour son entraînement ou son fonctionnement. Ce sont donc des processeurs Nvidia qu'utilise OpenAI pour donner vie aux requêtes des utilisateurs de ChatGPT. Microsoft détient ainsi plus de 10.000 cartes graphiques Nvidia A100.

Résultat. Pour la première fois Nvidia passe devant Intel en capitalisation boursière.

Sam Altman, le patron d'OpenAI, s'efforce de mettre en place une initiative technologique de 7000 milliards de dollars visant à renforcer les capacités mondiales de fabrication de puces d'IA. Une initiative qui vise à lever les contraintes qui entravent le développement de la GenAI… et lutter contre la position de monopole de Nvidia.

En résumé, l’IA préfère les cartes graphiques (GPU) aux "gros ordinateurs" classiques (avec CPU) :

  • Parce qu’un GPU fait plein de petits calculs en parallèle.
    Un CPU (processeur central) est très bon pour exécuter quelques tâches complexes à la fois, avec beaucoup de logique. Un GPU (processeur graphique), lui, est conçu pour faire des milliers de calculs simples en même temps (à l’origine : pour les pixels !). Le deep learning repose sur des millions de multiplications de matrices.
  • Parce qu’un modèle d’IA, c’est du sport intensif.
    Entraîner un modèle IA, ce sont des milliards de paramètres à ajuster. Les GPU sont taillés pour cette charge : des calculs massifs, répétitifs, et en rafale. Un CPU, même très puissant, serait vite débordé (ou très, très lent).
  • Parce que c’est beaucoup plus rapide (et rentable).
    Entraîner un modèle sur un CPU prendrait des siècles. Sur un ensemble de GPU (ou des TPU, encore plus spécialisés), cela prend quelques semaines. Et le temps, c’est… de l’énergie et de l’argent.
Nous avons ainsi les 3 ingrédients qui ont rendus le succès mondial possible : La technologie des réseaux de neurones, des données en masse, une puissance de calcul.