Bouton sommaire

IA en classe | L'IA sombre

ChatGPT se trompe, et c'est d'ailleurs clairement indiqué dans le mode d'emploi.

message erreur ChatGPT

Qui

Qui ? quoi ? comment ? où ? pourquoi ? quand ?

Eh bien vous ne le saurez pas ! Quasi nulle trace de sources dans ChatGPT, même si quelques liens commencent à apparaître. Ses sources, c'est le Web, pour le meilleur et le pire du pire.

Principales sources

Lorsqu'elle sont signalées, citons entre autres.

Common Crawl
Le corpus Common Crawl contient des pétaoctets de données (données brutes de pages Web, des extraits de métadonnées et des extraits de texte), régulièrement collectées depuis 2008.
Wikipedia
L'encyclopédie ouverte que l'on ne présente plus et qui reste un incontournable.
ArXiv
ArXiv est une archive ouverte de prépublications électroniques d'articles scientifiques dans les domaines de la physique, des mathématiques, de l'informatique, de la biologie quantitative, de la finance…

Stack Exchange
Stack Exchange est un réseau de sites anglophones de questions et réponses à édition collaborative, chacun traitant d'un thème particulier.

Absence de sources

Pour un journaliste, ou un historien l'absence de sources signifie tout simplement pas de journalisme ou pas d'histoire.
Pour une IA, Les sources utilisées sont multiples, voire infinies, mais aussi inconnues par l’utilisateur qui ne sait rien de leur fiabilité.

L'IA produit même des fausses informations parfois très convaincantes (faits historiques ou citations d’auteurs), un phénomène appelé « hallucination ».

Si l'absence peut poser problème, le trop plein aussi.

Le principal enseignement que donnent ces IA, c'est que, plus que jamais, l'apprentissage de la lecture critique de l'information est un enjeu d'éducation fort.

Et, malheureusement, de plus en plus difficile.

Mais que répond ChatGPT-4 (via Edge) ?
ChatGPT (via Edge) invente un mélange de faux et de vrai, mais en se basant effectivement sur le texte ce qui signifie que les pages récentes sont indexées. ChatGPT
Autres exemples
prompts AI
reponse Bard
reponse Chat-GPT-4
reponse officielle

Commentaire. Bard invente une composition de membres du jury totalement fausse, en citant une source et une date exacts, mais qui ne donne que le nom de la présidente de jury, pas sa composition.

Le nom de la présidente est exact avec Chat-GPT-4 via Bing, avec un lien très pertinent vers le rapport de jury, mais une information fausse en affirmant que l'on peut y trouver les membres, ou même leurs fonctions et nombre.

La réponse exacte se trouve dans l'arrêté, qui est publié après la nomination de la présidente et sur sa proposition.

Les choses évoluent cependant très vite et que ce soit chatGPT ou d'autres, les sources commencent à apparaître.
IA et EMI lienwww.perplexity.ai/

Artistes face à l'IA : que reste-t-il du droit d'auteur ?

IA comme intelligence artificielle et DA comme droit d'auteur. Quatre lettres qui ne s'entendent pas toujours et qui s'entremêlent en générant de nouvelles problématiques. A la une de la presse, les tribunes de créateurs inquiets abondent, qu'ils soient artistes visuels, romanciers ou journalistes. Tous s'alarment de ces IA génératives qui puisent dans leurs œuvres sans leur donner de monnaie d'échange.

source : Le Meilleur des mondes. France Culture
Le saviez-vous ?

Le saviez-vous ?
Le droit de fouille ou « DATA MINING »

Le droit de fouille ou « data mining » est la faculté donnée notamment aux créateurs d’outils d’intelligence artificielle, d’aller puiser dans les données de tiers accessibles sur Internet, afin d’améliorer les résultats générés par ces IA.

IA et EMI

Ce droit résulte des articles 3 (fouille des textes et de données à des fins de recherche scientifique) et 4 (exception ou limitation pour la fouille de textes et de données) de la directive européenne n°2019/790 du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique. Ces droits ont été intégrés aux articles L122-5 et suivants du code de la propriété intellectuelle.

Il reste cependant possible de s'opposer à cet fouille. Cette opposition n’a pas à être motivée et peut être exprimée par tout moyen. Dans le cas de contenus mis à la disposition du public en ligne, cette opposition peut notamment être exprimée au moyen de procédés lisibles par machine, y compris des métadonnées, et par le recours à des conditions générales d’utilisation d’un site internet ou d’un service.

IA et EMI

Le débat suscité par l’IA s’est particulièrement focalisé sur le respect des droits d’auteur. Or, l’enjeu essentiel ne tient-il pas au fait que de nombreux résultats générés par l’IA concurrencent désormais directement les créations ayant servi à leur élaboration.

IA et EMI

IA et EMI

Pour l'éducation aux médias et à l'information (EMI), les enjeux sont de taille en matière d'interactions sociales et scolaires, même s'il est encore trop tôt pour mesurer les conséquences sur l'enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

theconversation.com/Lien vers l'article

Ressembler à un humain signifie-t-il être intelligent ?

Qui L’une des critiques adressées au test de Turing en tant que test d’intelligence est qu’il mesure plus la ressemblance du comportement de l’ordinateur avec celui de l’être humain que son intelligence.

De nouveaux tests sont apparus, par exemple celui de la chambre chinoise.

philomedia.bephilomedia.be

fr.wikipedia.org/wiki/Chambre_chinoiseWikipédia

Lumni (2017)

Les robots vont-ils nous remplacer ?

source : Lumni (2017)

Pourquoi avoir peur des robots et des machines ?

En 1811, en Grande-Bretagne, commençait la révolte des Luddites : ces artisans textiles qui perdaient leur emploi en masse à cause de la multiplication des métiers à tisser mécaniques, et qui attaquaient les usines pour en détruire les machines.

En pleine guerre contre Napoléon, l’Angleterre a dû envoyer 12 000 soldats pour contenir l’émeute, condamner à la peine de mort ou à l’exil, les casseurs de machines.

La robotisation ne tue pas le travail, mais le transforme.

Éthique

Les implications sociétales de l’IA

Les implications sociétales de l’IA La deuxième partie de ce cours sur l'IA traite des implications sociétales de l'IA.

Partialité des algorithmes avec une discrimination fondée sur l’appartenance ethnique, le sexe ou d’autres facteurs lors de la prise de décisions concernant les demandes d’emploi, les prêts bancaires, etc.

Les réseaux sociaux peuvent facilement amplifier les partis pris existants, même s’ils sont très légers au départ.

Autre question, celle de la désanonymisation, c’est-à-dire la levée de l’anonymat de données dont nous pensions qu’il était assuré.

Ce ne sont ici que quelques points de ceux abordés dans ce cours en ligne gratuit.

course.elementsofai.com/course.elementsofai.com/

IA et triche

Comment empêcher les élèves d'utiliser ChatGPT comme moyen de tricher et de plagier ?

Certes, il existe de nombreux outils différents déjà disponibles pour détecter un texte écrit par l'IA. Citons par exemple.

copyleaks.com/copyleaks.com/

crossplag.comhttps://crossplag.com/

aiwritingcheck.org/https://aiwritingcheck.org/

Mais la bataille semble d’ores et déjà perdue. Peut-être faut-il envisager d'utiliser les IA comme un outil pour les tâches créatives qui soutiennent l'apprentissage actif et l'amélioration des compétences de pensée critique et créative des élèves. Et apprendre ainsi à l'utiliser de manière responsable, comme aide à l'apprentissage ou comme compagnon d'apprentissage.

Recommandations sur l’éthique de l’intelligence artificielle (23 novembre 2021)

Artcile Libération sur l'IA en classe

www.liberation.fr/www.liberation.fr/

Voir également : L'IA en classe : qu'est-ce que la triche ? Qu'est-ce qui va ?

Questions

  • Quelles pratiques pédagogiques traditionnelles nécessiteront un léger ajustement ? Ou une refonte ?
  • Comment préserver la réflexion et le développement des compétences des élèves ?
  • Que devrions-nous considérer comme de la « triche » ? Qu'est-ce qui est considéré comme une utilisation responsable ?
  • Comment préparer les étudiants à leur avenir, un avenir où l'IA en fera partie ?
triche lienditchthattextbook.com/

Humanités

cafepedagogiqu

L’Intelligence Artificielle est-elle compatible avec les humanités ?
Un article du Café pédagogique vous propose de faire le point.

www.cafepedagogique.net/Lien vers l'article

éthique de l’intelligence artificielle
« La présente Recommandation a pour objet de servir de base afin de mettre les systèmes d’IA au service de l’humanité, des individus, des sociétés, de l’environnement et des écosystèmes, ainsi que de prévenir les préjudices. Elle a également pour vocation de favoriser l’utilisation pacifique des systèmes d’IA. »

Cependant, trois éléments occupent une place centrale dans cette approche éthique :

  1. Les systèmes d’IA sont des technologies de traitement des informations qui intègrent des modèles et des algorithmes, lesquels génèrent une capacité d’apprentissage et d’exécution de tâches cognitives conduisant à des résultats tels que l’anticipation et la prise de décisions dans des environnements matériels et virtuels.
  2. Les questions éthiques concernant les systèmes d’IA se rapportent à toutes les étapes du cycle de vie de ces systèmes, compris ici comme allant de la recherche, la conception et le développement au déploiement et à l’utilisation, et incluant la maintenance, l’exploitation, la commercialisation, le financement, le suivi et l’évaluation, la validation, la fin de l’utilisation, le démontage et la mise hors service.
  3. Les systèmes d’IA soulèvent de nouveaux types de questions éthiques qui comprennent, sans s’y limiter, leur impact sur la prise de décisions, l’emploi et le travail, les interactions sociales, les soins de santé, l’éducation, les médias, l’accès à l’information, la fracture numérique, la protection des consommateurs et des données personnelles, l’environnement, la démocratie, l’état de droit, la sécurité et la police, le double usage et les droits de l’homme et les libertés fondamentales, y compris la liberté d’expression, la protection de la vie privée et la non-discrimination.
    En outre, de nouveaux défis éthiques sont générés par la reproduction et le renforcement potentiels des biais existants par les algorithmes d’IA, ce qui exacerbe des formes déjà existantes de discriminations, de préjugés et de stéréotypes.

lien pdfGuide au format PDF

Robots tueurs

Il y a quelques années déjà, que ce soit dans le module sur les algorithmes, ou sur les drones et l'IA nous nous posions la question des robots tueurs.

Depuis 2012, elle est régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le cadre de la campagne internationale « Stop Killer Robots » (« Arrêtez les robots tueurs »), celle d'interdire à une machine autonome la possibilité de tuer. La décision de tir a toujours été réservée aux humains sur le champ de bataille.

Or, que constate-t-on en Ukraine ?
L'usage régulier de munitions rodeuses.

Et la France n'est pas en reste.

La Direction générale de l’armement (DGA) et l’Agence de l’innovation de défense (AID) ont lancé, début mai 2023, deux appels à projets pour le développement de « munitions rôdeuses », aussi appelées drones kamikazes, munitions maraudeuses, vecteurs opérationnels à charge active…

Elles ont déjà été développées dans des pays comme Israël, la Pologne et surtout les USA qui ont récemment fourni aux Ukrainiens des Switchblade et des Ghost Phoenix.

Switchblade 300 Block 20 Loitering Missile System

Cette vidéo de promotion montre le fonctionnement de cette munition rodeuse qui a recourt à l'IA (notez la femme et l'enfant qui sont évités), pour se jeter sur des "ennemis" à l'intérieur même d'une maison.

source : AeroVironment
350 chercheurs

éthique de l’intelligence artificielleGeoffrey Hinton et Yoshua Bengio, deux des trois chercheurs qui ont remporté un prix Turing pour leurs travaux pionniers sur les réseaux neuronaux et qui sont souvent considérés comme les "parrains" du mouvement moderne de l'IA, ont signé la déclaration.

Outre les menaces sur les emplois (300 millions selon certaines sources), la dévalorisation d'autres, les questions de vie privée, de sécurité des données, de fake news ou d'addictions et j'en passe, se pose aussi tout simplement l'usage volontaire de l'IA à des fins néfastes.

Cela est déjà le cas en la détournant de sa finalité (hackers, officines d'influence, publicités cachées etc.) mais aussi pour des États pour mener une guerre numérique. Fort heureusement, la qualité des données d'entraînement produites par des pays non démocratiques, assez piètre, reflète celle de l'absence de liberté d'expression.

éthique de l’intelligence artificielleLe PDG d'OpenAI, Sam Altman, a déclaré lors d'une audition mardi devant le Congrès américain que l'IA est une technologie à la fois utile et dangereuse et qu'elle est susceptible de bouleverser l'économie, les institutions démocratiques et les principales valeurs sociales. Il a déclaré aux législateurs qu'il était urgent de réglementer la technologie et a présenté ses propres propositions sur la manière dont le gouvernement américain pourrait réglementer les entreprises comme la sienne. Ce n'est pas la première fois qu'Altman déclare être effrayé par les potentiels de l'IA, mais OpenAI et lui s'emploient toujours à développer des systèmes d'IA plus puissants.

9 menaces

  1. Risques et bénéfices : Nouvelles découvertes médicales, meilleure compréhension de la biologie ou de la physique, du climat ou de la météo. Mais aussi désinformation, harcèlement, l’usurpation d’identité, le clonage vocal et les deepfakes
  2. Révolution industrielle : Altman exprime sa préoccupation concernant les emplois et la nécessité de se préparer en termes de formations et de relocalisations
  3. Règlementation de l'IA : L’intervention des gouvernements est essentielle pour atténuer les risques. « Le gouvernement américain devrait envisager une combinaison d’exigences de licence ou d’enregistrement pour le développement et la publication de modèles d’IA au-dessus d’un seuil crucial de capacités, ainsi que des incitations pour une conformité totale à ces exigences »
  4. Impact sur les emplois : S'il est difficile à prédire l'impact est certain
  5. Manipulation de l'opinion publique : Inquiétude face à la possible manipulation. Là encore Sam Altman recommande une règlementation
  6. Transparence de l'IA : Les consommateurs devraient savoir lorsqu'ils interagissent avec uen IA et avoir le choix d'échanger avec une vraie personne
  7. Création d'une agence de réglementation : Celle-ci a pour vocation de faire face à la complexité et la rapidité de l'évolution des IA
  8. Protection des créateurs de contenus : Notamment dans le domaine de l'IA générative, protéger les auteurs
  9. Applications militaires : Sam Altman s'oppose à la possibilité laissée aux drones de choisir leurs cibles.

6 dangers

Les 6 DANGERS de l'Intelligence Artificielle

Diffusion de la responsabilité, perte d'emplois, problèmes d'environnement, cybercriminalité, IA forte, arme étatique. En se basant sur la Publication de Stuart Russel et Andrew Critch TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI, Anatole fait une description avec des exemples des principaux dangers de l'IA.

source : Chez Anatole
Les implications sociétales de l’IA

www.futura-sciences.com/www.futura-sciences.com

www.futura-sciences.com/www.ouest-france.fr

Des avancées lentes et en retard

éthique de l’intelligence artificielleSi l'Europe a enfin légiféré en matière d'IA, c'est après de longues, très longues années de réflexion.

La loi européenne sur l'intelligence artificielle (AIA) définit quatre niveaux de risque pour les systèmes d'IA : risque inacceptable (manipulation subliminale, exploitation des vulnérabilités des personnes entraînant des comportements préjudiciables, catégorisation biométrique des personnes basée sur des caractéristiques sensibles, notation sociale à usage général, identification biométrique à distance en temps réel (dans l'espace public), évaluer l'état émotionnel d'une personne, police prédictive, scraping d'images faciales ), élevé, limité et minime (ou nul). Il y aura des réglementations et des exigences différentes pour chaque classe.

https://www.trail-ml.com/

Guide UNESCO

Une limite d’âge de 13 ans

Le Guide de l'UNESCO présente ensuite sept étapes clés que les gouvernements doivent suivre pour réglementer l'IA générative et établir des cadres politiques pour son utilisation éthique dans l'éducation et la recherche. Il recommande par exemple l'adoption de normes mondiales, régionales ou nationales en matière de protection des données et de vie privée. Il fixe également une limite d'âge de 13 ans pour l'utilisation des outils d'IA dans les salles de classe, et appelle à former les enseignants spécifiquement sur ce sujet.

www.futura-sciences.com/Télécharger le guide

◄ Précédent