L’IA
est en réalité une discipline
jeune d’une soixante d’années,qui réunit des sciences, théories et techniques
(notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle et
informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives
d’un être humain.
Elle a connu des hauts et des bas, les fameux hivers de l'IA⛄, été la risée des traducteurs - my taylor is riche - avant de se mettre à "marcher".
L’intelligence artificielle est une révolution technologique. Elle génère enthousiasmes, inquiétudes et fantasmes. Mais comment est-elle née ? Le scientifique Cédric Villani, qui a rédigé un rapport parlementaire sur l'IA, éclaire l'histoire si récente de ce bouleversement technologique. 4 épisodes des 12 minutes.
L’idée des réseaux de neurones prend donc un peu de corps avec Frank Rosenblatt et son fameuxPerceptron dès 1958. Perceptron est une sorte de neurone artificiel capable d'apprendre à reconnaître des formes simples.
Ce fut un petit succès… jusqu’à ce que Marvin Minsky et Seymour Papert publient en 1969 un livre
qui cassait un peu l’ambiance en montrant les limites sévères du
perceptron.
Résultat : hiver nucléaire sur le domaine pendant une décennie ou
deux.
Autrement dit la théorie existait déjà, mais la pratique n'en était qu'aux
balbutiements. Il manquait quelque chose, et ce quelque chose c'était lesdatas
caractérisées.
Sans le Big Data (données immenses), le Machine Learning et l’intelligence artificielle seraient restées des sciences de laboratoire comme elles le sont depuis 50 ans.
C’est le Big Data qui permet d’accélérer la courbe d’apprentissage et permet l’automatisation des analyses de données. Plus un système Machine Learning reçoit de données, plus il apprend et plus il devient précis.
Il existe des sites spécialisés, y compris en opensource, qui proposent une copie quasi complète
de tout le Web.
Common Crawl est une organisation à but non lucratif 501(c)(3) fondée en 2007
qui ajoute de 3 à 5 milliards de nouvelles pages chaque mois.
100 disques durs de 2 Tera pour le Web indexé et2.5 milliards pour le Web profond.
Parler de l'IA nécessite aussi d'évoquer la difficulté que nous avons à penser l'immensité, les grands nombres.
Prenons les distances.
Deux autres exemples dans la compréhension du vivant pour faire une analogie. Il s'agit de notre fenêtre de perception visuelle, des couleurs ou des tailles ou des particules, par exemple le photon gamma…
Nous ne voyons pas dans l'infrarouge (cas des serpents) ou dans l'ultra violet, et si nous pouvons apercevoir des objets de moins de 0,1 mm ou a plus de 10 km, nous n'en avons pas de perception spatiale.
Telle étoile est-elle plus ou moins loin que telle autre ?
La lumière visible émise par le soleil n'est qu'une partie de celle émise.
Il émet des photons,
ces particules qui voyagent à 300.000 kilomètres par seconde et sont si fines que certaines peuvent
nous traverser. Et quand ce sont des photons gamma, leur traversée n'est pas sans risque... y
compris de fake news.
Sur ce sujet, l'on pourra par exemple écouter le podcast de Xavier de la Porte, Pourquoi la nanoparticule s’est-elle retrouvée dans tous les complots ?
Outre les possibles erreurs de calcul liées à de sombres histoires de virgules flottantes, se posent également les problèmes de fuites ou de saturation de mémoire. Les fuites de mémoire se produisent lorsque les programmes ne parviennent pas à libérer les ressources mémoire dont ils n’ont plus besoin. Cela se traduit par des problèmes de performances. En termes simples, votre ordinateur manque de mémoire.
Le nombre maximum de lignes qu'un tableur Excel peut afficher et d'à peine un peu plus d'un million, plus exactement 1 048 576 lignes et 16 384 colonnes. Un tout petit nombre comparé aux données traitées par l'IA.
Notons ici égalementqu'un tableur, comme tout ordinateur, fait des erreurs.Et des erreurs non pas par erreur mais par sa programmation même.
Testons un calcul simple :1 + 0.000123456789012345
Ce calcul qu'un élève de CM2 saurait faire, un tableur de type Excel ou OpenOffice le fait-il ?
Dans le même ordre d'idées, un calcul de type 0.1 + 0.2, au lieu d'obtenir un 0.3 parfait, donne quelquefois un résultat comme 0.30000000000000004.
Ou encore, calculer 1/824633702441.0.
Simple me direz-vous !
Et pourtant une erreur de
division à virgule flottante dans ses processeurs Pentium a entraîné leur remplacement
inconditionne.
Prix de l’erreur : 475 millions de dollars.
Étant donné la complexité des systèmes utilisant l’intelligence artificielle, les sources d’erreur peuvent être multiples.
Si l'IA a
connu ce développement c'est grâce à un seul acteur, Nvdia, le célèbre fabriquant de cartes
graphiques. Nvidia récolte ainsi les fruits d’une vision de l’informatique “accélérée”, couplant
les CPU avec des GPU pour contourner les limites de la loi de Moore.
La petite entreprise californienne créée avec 40 000 dollars vaut désormais plus de 1000 milliards.
Contrairement au CPU qui exécute les instructions des programmes informatiques, le GPU créé par Nvidia se concentre sur le calcul des visuels et leur rendu.
Le groupe américain historiquement dédié aux jeux vidéo envahi désormais les data centers, qui représentent désormais plus des trois quarts de son activité et 80% du marché global de l'IA.
L’IA
générative requière une
immense puissance de calcul pour son entraînement ou son fonctionnement. Ce sont donc des
processeurs Nvidia qu'utilise OpenAI pour donner vie aux requêtes des utilisateurs de
ChatGPT.
Microsoft détient ainsi plus de 10.000 cartes graphiques Nvidia A100.
Résultat. Pour la première fois Nvidia passe devant Intel en capitalisation boursière.
En résumé, l’IA préfère les cartes graphiques (GPU) aux "gros ordinateurs" classiques (avec CPU) :