QUE FAIRE FACE A CHATGPT ?
Eric Le Coquil, I.A-I.P.R de philosophie de l’Académie de Créteil et d’Orléans-Tours
Analyse technique de ChatGPT3 : sa nature, ses possibilités, ses limites
• Quelques liens :
o Un collègue explique et analyse les principes techniques, les modalités de fonctionnement, les possibilités et les limites de ChatGPT3 : https://www.youtube.com/watch?v=R2fjRbc9Sa0
o Un collègue corrige une copie produite par ChatGPT : https://etudiant.lefigaro.fr/article/c-est-loin-de-faire-un-devoir-de-qualite-un-prof-corrige-le-bac-dephilo-de-chatgpt_a3cca6d4-8ddd-11ed-a86d-66d30ea5ec0a/
o Pour une réflexion philosophique sur l’intelligence artificielle, sa puissance réelle en son état actuel de développement technique, ses limites et ses véritables dangers (qui ne se situent certainement pas là où on le penserait) on peut écouter ce podcast récent, Avec Philosophie, sur France Culture : https://www.radiofrance.fr/franceculture/podcasts/avec-philosophie/l-intelligence-artificielle-estelle-vraiment-intelligente-2059509
• Quelques éléments de commentaire :
Il serait facile, à première lecture des productions « philosophiques » de ChatGPT3, de céder à un animisme irréfléchi portant à surestimer ses possibilités et ses performances réelles. Comme le montre très bien cette vidéo, il est pourtant parfaitement clair, au regard d’une analyse technologique précise et bien informée, que ChatGPT3 ne pense pas, ne réfléchit pas philosophiquement. Il fonctionne selon les mêmes principes qu’un ChatBot : il prédit des chaînes langagières, selon le degré de probabilité de succession des termes et syntagmes, dans un contexte rédactionnel et informationnel prescrit (la commande qui lui est adressée) sur la base de quantités très importantes de données, dans les limites posées par des dispositifs de méta-contrôle visant à essayer de « moraliser » les productions de l’outil, mais que l’on peut assez facilement contourner ou prendre en défaut. Un ChatBot n’est pas un sujet.
On ne peut donc s’effrayer vraiment de l’irruption d’outils comme ChatGPT3 que si l’on présuppose la réductibilité de la pensée à des constructions langagières.
Au contraire, si l’on est vraiment attentif à la distinction entre construction langagière et construction de pensée, on doit pouvoir toujours faire la différence entre un texte qui imite simplement un langage philosophique, donc assez convenu sur le fond, et un texte qui réalise un véritable travail de pensée. Si des élèves utilisent une IA de prédiction langagière, cela ne leur garantit nullement de produire un bon devoir de philosophie, ni même un devoir simplement correct sur le fond, et c’est tout ce qu’il nous faut considérer.
Si une bonne dissertation de philosophie est précisément celle qu’en l’état actuel de la technologie une IA n’aurait pas pu écrire, alors nous disposons ici en outre d’un critère d’évaluation possible des copies des élèves.
L’évaluation des travaux des élèves face à l’irruption des Intelligences Artificielles : repenser l’articulation entre devoirs surveillés et devoirs en temps libre (« à la maison »)
Après l’irruption de l’Internet dans le champ pédagogique à la fin des années 1990 et le développement du phénomène du « copier/coller » de corrigés de dissertations de philosophie dans les copies des élèves, l’avènement des IA en libre accès pose à nouveaux frais le problème plus général de la tricherie et de ses outils. Ce problème n’a rien de nouveau : seule l’est la puissance inégalée des moyens mis aujourd’hui à la disposition d’élèves qui auraient l‘idée les utiliser pour tricher.
Le principe de charité commande cependant de rappeler et de souligner tout d’abord avec force que le recours aux ressources disponibles sur l’Internet, y compris sur le mode du plagiat, ne procède pas nécessairement chez les élèves d’une volonté malveillante de frauder ou de se dispenser à bon compte du travail qui leur est prescrit. Bien souvent il procède tout aussi bien et bien plutôt d’un désarroi face à la nouveauté des exercices de dissertation et d’explication de texte, d’un vertige devant une tâche vécue à tort comme insurmontable. La maladresse qui bien souvent dénonce ce recours révèle en outre la très grande naïveté des usages spontanés qui sont faits de ces ressources, l’insuffisance ou l’absence d’une véritable éducation à leurs usages pertinents et légitimes ainsi qu’aux manières à la fois intelligentes, créatives et personnelles dont les élèves pourraient les exploiter. Ces constats appellent incontestablement un accompagnement attentif et renforcés de l’apprentissage des deux exercices canoniques de la discipline philosophie, apprentissage qui gagne beaucoup à prendre en compte et à intégrer radicalement le facteur numérique, mais aussi à viser corrélativement un apprentissage des usages légitimes des ressources disponibles, qu’il n’est pas interdit au professeur de sélectionner lui-même et de prescrire à ses élèves.
Au XIXe siècle, l’enseignement secondaire en général et l’enseignement de philosophie en particulier connaissaient déjà parfaitement le problème du recours que pouvaient avoir les élèves à des aides extérieures, en un temps où les élèves disposaient de ressources et d’outils bien moins nombreux et bien moins performants, mais en disposaient tout de même. Nos prédécesseurs avaient résolu ce problème de la façon suivante : les résultats annuels des élèves n’intégraient pas de travaux donnés à faire à la maison ou à l’étude, ils excluaient les exercices et devoirs courants ; ils prenaient en compte uniquement les résultats de compositions trimestrielles faites sur table. Un bon travail de surveillance, scrupuleusement attentif pendant ces épreuves, permettait aux professeurs de faire efficacement la chasse aux tentatives de triche et de surprendre la plupart du temps les petits téméraires en flagrant délit.
Alors que de nos jours l’introduction récente du contrôle continu et l’intégration des résultats trimestriels des élèves dans les procédures d’examen et d’orientation font de l’évaluation un enjeu majeur décisif aux yeux des élèves et par voie de conséquence une source potentielle de conflit dans les classes, est-ce à dire qu’il faille renoncer aux « devoirs à la maison », propices, lorsqu’ils sont faits avec raison et probité, à des recherches intelligentes, à d’enrichissantes lectures, à des essais et erreurs ? Il faut réaffirmer qu’il n’en est rien.
Les devoirs à la maison, faits pour apprendre, pour s’entraîner, pour faire des recherches personnelles, pour retravailler ses erreurs tranquillement, sur le mode d’une répétition au sens théâtral ou musical du terme, relèvent naturellement de la dimension d’évaluation que l’on dit aujourd’hui « formative ». Même s’il faut, bien entendu, les noter pour que l’élève puisse bénéficier de repères relatifs à ses progrès et à l’évolution de ses besoins pédagogiques, on pourrait juger que ces travaux ne devraient pas, en toute rigueur, entrer dans le calcul des résultats trimestriels des élèves.
Sur la nécessaire exclusion des évaluations « formatives » des résultats des élèves cf. les travaux de Benjamin S. Bloom, fondateur du concept (behavioriste) d’évaluation formative : Learning for mastery (1968) ; trad. : Apprendre pour maîtriser, Payot,1972.)
Néanmoins on peut penser que même un dispositif plus fortement axé sur la pratique de la composition sur table (3 devoirs surveillés ou épreuves blanches sont préconisés dans les recommandations de l’inspection : lien Eduscol) n’exclurait nullement l’usage de formules mixtes, dont on sait qu’elles permettent un accompagnement resserré de la préparation des devoirs limitant considérablement les risques de copier/coller et qu’elles peuvent offrir l’occasion d’intégrer des ressources numériques dans le travail des élèves, le cas échéant à titre de repoussoir, qu’elle n’exclurait pas non plus la pédagogie de la seconde chance (faire refaire les copies ratées ou en réécrire des parties), ni même des formes de notations partielles, provisoires, intermédiaires, préparatoires à celle du devoir achevé, qu’il le soit « à la maison » ou sur table.
Pour garantir le rendu de devoirs à la maison non pris en compte dans la moyenne trimestrielle (le risque que les élèves ne les rendent pas s’ils ne « comptent » pas constitue très évidemment une objection sérieuse) on pourrait très simplement lui conditionner l’accès aux dispositifs de seconde chance post-devoirs surveillés : pas de DM d’entraînement rendus en amont, purs, bien entendu, de tout plagiat ou de tout contenu issu de ChatGPT3, pas de seconde chance.
Quelques éléments de stratégie pédagogique pour faire face au phénomène ChatGPT3
• Occuper le terrain : éduquer les élèves aux outils numériques et les prendre en compte dans l’enseignement de philosophie
Montrer des extraits bien choisis de la vidéo aux élèves permettra de leur expliquer précisément les mécanismes de ChatGPT3, en vue de les convaincre que le résultat, s’ils l’utilisent, sera bien loin de ce qu’ils pouvaient en espérer.
ChatGPT3 est aussi un excellent exemple à exploiter et à travailler en classe avec les élèves, à la lumière de cette vidéo, dans une leçon qui entreprendrait de poser le problème de la réductibilité ou non de la pensée à des structures de langage.
• Exploiter ChatGPT3 dans le cadre de l’apprentissage de la dissertation : passer de la simulation à l’émulation
- Premier exercice : comparer avec les élèves des exemples de "dissertations" écrites par ChatGPT3 et de bonnes dissertations écrites par des élèves ou construites en classe avec le professeur (l’exercice peut être réalisé « en aveugle », en mélangeant des copies d’élèves et des copies produites par l’IA sans dire aux élèves de quelle source elles proviennent) ; procéder à leur analyse et à leur évaluation, sous la forme de commissions d’entente comparables à celles auxquelles participent les correcteurs de l’épreuve du baccalauréat (demander aux élèves de les lire, de les évaluer et de les noter).
- Deuxième exercice : utiliser des matériaux produits par ChatGPT3 pour entraîner les élèves à la dissertation (par analogie avec l’entraînement des joueurs d’échecs au moyen d’Intelligences Artificielles) :
-
- mettre un sujet de dissertation (avec consignes rédactionnelles précise permettant d’obtenir un texte ressemblant fortement à une dissertation de philosophie) donné aux élèves dans ChatGPT3 ;
-
- donner le résultat obtenu aux élèves et leur faire analyser les défauts de la copie ;
-
- leur demander de rédiger chacun une copie qui n’ait pas les défauts constatés : il s’agit de les mettre en concurrence avec la machine, en leur demandant de faire mieux qu’elle ; on pourrait voir là une façon originale de moderniser le vieux principe (d’origine jésuite) de l’émulation.
Lien vers un exemple d’exercice proposé par Maryse Emel :
- Demandons au chatbot de réaliser une dissertation :
RESSOURCES
par Maryse Emel
- Introduction : Her, le film de Spike Jonze
Spike Jonze aborde à travers son film, la question de la séparation (homme-machine ; âme-corps).
Quelle anthropologie se dégage du film ?
Dossier Transmettre le cinéma
Pour l’essayiste Ariane Nicolas, le film Her montre le piège de l’idéal transhumaniste. L’humain peut croire échapper à son humanité par la technologie, mais c’est une impasse. « En tombant amoureux d’un logiciel, le héros pensait s’épargner la souffrance à laquelle une relation avec une personne humaine l’aurait exposé. Le réalisateur du film […] suggère que la souffrance au contraire est l’expérience indispensable qui atteste de notre singularité en tant qu’êtres humains. Seul un être véritablement incarné est capable d’éprouver des émotions sincères et donc, in fine, de prendre conscience qu’il existe. »
Les philosophes et l’Intelligence artificielle
- Travailler ces questions à la lumière des oeuvres de Gilbert Simondon peut s’avérer utile pour clarifier le rapport de l’homme à la machine
ARTICLES sur l’intelligence artificielle
HUMANITE HUMANISME TRANSHUMANISME
- L’esprit dans une machine : le transfert de l’humain vers la machine
- Des humanités numériques à la singularité technologique : que reste-t-il de l’humanisme ? Jean-Gabriel Ganascia, professeur à l’université Pierre-et-Marie-Curie et président du comité d’éthique du CNRS (Comets)
- Le droit des data Marie-Anne Frison-Roche, professeure à Sciences-Po Paris
- L’être humain algorithmé, dépassement ou perte de soi
Isabelle Falque-Pierrotin, présidente du CNIL - Penser le sujet de droit comme puissance : contingence et potentialité à l’ère du calcul intensif Antoinette Rouvroy, chercheure qualifiée du FNRS, Centre de recherche information, droit et société de l’université de Namur.
- Le téléchargement de l’esprit : plus qu’une expérience de pensée ? Denis Forest, professeur de philosophie, université Paris X - Nanterre.
- L’économie de l’éternité ?Pierre-Yves Geoffard, directeur de l’Ecole d’économie de Paris.
Table-ronde - L’esprit dans une machine : le transfert de l’humain vers la machine
Il est proposé à la fin de La Lettre un panorama radiophonique des questions relatives au chatGPT qui peut être l’occasion de dégager les arguments et les opinions à propos de l’intelligence artificielle.
EXERCICES
- Exercices sur la distinction outil-instrument et la technique
- Peut-on déléguer, piloter, contrôler ou collaborer avec ChatGPT ? Qu’en est-il sinon de la liberté humaine ?
- La fonction fabulatrice peut-elle être appliquée à la machine ?
Bergson ou encore Bachelard peuvent apporter une contribution à une réflexion sur la fonction scientifique et philosophique de l’imagination.
Mettre en oeuvre des exercices avec le chatbot est une façon de rencontrer cet instrument de travail :
-
- L’enseignant pose un problème à l’élève qui doit le résoudre avec ChatGPT selon plusieurs scénarios. L’élève peut être le professeur du ChatGPT et le pousser à améliorer ses réponses en ajoutant des consignes.
-
- Ou alors l’élève peut être dans une posture d’évaluation de la réponse du chat en recherchant des biais ou des omissions.
Quel que soit le scénario, l’idée est de mettre l’élève dans un rôle actif et de considérer chatGPT comme un partenaire.
- Le chatGPT c’est d’abord un langage dont il convient d’interroger la pertinence.
ChatGPT est un « modèle de langage étendu, un type d’intelligence artificielle qui utilise l’apprentissage profond (une forme d’apprentissage automatique) pour traiter et générer des textes en langage naturel (…) [Ce type de modèle est] formé sur des quantités massives de données textuelles, lui permettant d’apprendre les nuances et les complexités du langage humain" D’après Susnjak, 2022 [traduction]).
- Le ChatGPT peut-il "doubler" l’homme ?. Voir à ce propos Gorgias de Platon
- Travailler avec les élèves les notions d’original, originel, origine.
Si le chatGPT est en mesure de se servir d’une langue "naturelle", cela en fait-il un être humain, et de surcroît pensant ? Même si la réflexion philosophique s’enracine dans un travail sur et avec le langage, réfléchir philosophiquement de façon authentique ne consiste jamais seulement à produire du discours ou du texte, imitant le langage ou les langages des philosophes.
Cela renvoie à un travail d’élucidation du formalisme à l’oeuvre dans les articles de vulgarisation à propos de l’IA, rapprochant ces discours d’une façon de dire propre à la rhétorique
- Exercice sur un texte de Kant sur l’art de la conversation
- Le dialogue selon Platon
Peut-on attribuer à la machine le statut de “sujet” ?
Elle procède par distinction, se donnant l’apparence d’exercer un jugement.
Cela permettra de mesurer les limites de cette démarche ;
Elle fonde son pouvoir sur la capacité à répondre, et répondre vite en l’occurrence.
Deux attitudes qui ne relèvent pas d’une attitude philosophique.
On examinera à partir d’exemples, la conception du “dialogue”, nommé “conversation” que le chatbot défend.
- Un modèle cumulatif et continu du savoir qui instaure un temps de la continuité et du progrès.
Dans la métaphore inouïe Ernesto Grassi écrit : “ c’est la puissance métaphorique de la réalité qui dévoile sa duplicité en opposition avec l’univocité du monde rationnel, qui aspire sans cesse à atteindre en vain, par un processus dialectique, la signification des étants abstraits, fossilisés”(p.176)
La philosophie naît de l’étonnement, c’est-à-dire d’un problème, d’une opacité
Conclusion provisoire
Rien de plus facile que de craindre. Texte Alain, Libres Propos, (1927).
Il y a croire et croire, et cette différence paraît dans les mots croyance et foi. La différence va même jusqu’à l’opposition ; car selon le commun langage, et pour l’ordinaire de la vie, quand on dit qu’un homme est crédule, on exprime par là qu’il se laisse penser n’importe quoi, qu’il subit l’apparence, qu’il subit l’opinion, qu’il est sans ressort. Mais quand on dit d’un homme d’entreprise qu’il a la foi, on veut dire justement le contraire. [...] Dans le fait ceux qui refusent de croire sont des hommes de foi ; on dit encore mieux de bonne foi, car c’est la marque de la foi qu’elle est bonne. Croire à la paix, c’est foi ; il faut ici vouloir ; il faut se rassembler, tout comme un homme qui verrait un spectre, et qui se jurerait à luimême de vaincre cette apparence. Ici il faut croire d’abord, et contre l’apparence ; la foi va devant ; la foi est courage. Au contraire croire à la guerre, c’est croyance ; c’est pensée agenouillée et bientôt couchée. C’est avaler tout ce qui se dit ; c’est répéter ce qui a été dit et redit ; c’est penser mécaniquement. Remarquez qu’il n’y a aucun effort à faire pour être prophète de malheur ; toutes les raisons sont prêtes ; tous les lieux communs nous attendent. Il est presque inutile de lire un discours qui suit cette pente ; on sait d’avance ce qui sera dit, et c’est toujours la même chose. Quoi de plus facile que de craindre ?
Fascinant et effrayant, ce robot conversationnel est capable d’écrire des textes et de dialoguer avec un langage humain presque troublant. À peine cinq jours après son lancement, l’intelligence artificielle a franchi le million d’utilisateurs gratuits dans le monde. Mais que se passe-t-il quand elle tombe entre de mauvaises mains ?
Une intelligence artificielle peut-elle créer ? Rodolphe Gelin, expert en intelligence artificielle nous explique comment fonctionnent les IA créatives.
Deux mois à peine après son lancement, ChatGPT fait beaucoup parler. Cette intelligence artificielle, sorte de robot accessible en ligne, répond à la plupart des questions. A tel point qu’elle peut même écrire une dissertation correcte, de quoi faire naître un certain intérêt chez les étudiants.
Sur des dizaines de milliers d’amendes contestées aux Etats-Unis et en Angleterre, l’intelligence artificielle a un taux de réussite de 60 %.
ChatGPT, Dall-E : ces algorithmes semblent capables de créer des chansons, des tableaux, de rédiger du texte. Mais il est impossible de leur donner le statut d’auteur... en tout cas pour le moment. Leur utilisation pose des enjeux majeurs en termes de droit d’auteur.
Alors que ChatGPT est au cœur de l’actualité depuis début décembre, Le Meilleur des mondes se penche sur cet outil accessible au grand public qui a déjà attiré un million d’utilisateurs. Qu’est-ce que ChatGPT, peut-on réellement parler d’innovation de rupture ?
L’armée israélienne vient de mettre en place à Hébron, ville occupée en Cisjordanie du sud, une nouvelle technologie : une arme automatique, installée sur un checkpoint en pleine rue, qui peut être contrôlée à distance.
Avec les progressions de l’intelligence artificielle, c’est toute l’économie de l’emploi et les compétences humaines qui sont amenées à être remises en question. Va-t-on pour autant vers un monde sans travail ?
Le grand remplacement par les intelligences artificielles
FRANCEINFO JUNIOR
franceinfo junior. Qu’est-ce qu’est « ChatGPT » ?
« franceinfo junior » se penche ce lundi sur ce modèle d’intelligence artificielle avec Anis Ayari, ingénieur en intelligence artificielle.
A LA SOURCE
Autobiographie de ChatGPT
Cette semaine, nous avons demandé à ChatGPT d’écrire sa propre chronique pour « A la source ». Le résultat est troublant... !
LE BILLET DE MATTHIEU NOËL
Chat-GPT à la rescousse... des politiques !
Matthieu Noel… Fort de votre connaissance assez poussée du Web3, vous avez décidé ce matin de nous décrypter le phénomène “ChatGPT”, cette intelligence artificielle capable de prouesses presque “inquiétantes” ?
LA QUESTION DU JOUR
Pourquoi ChatGPT, la nouvelle intelligence artificielle, fascine-t-elle tant ?
Plus d’un million d’utilisateurs ont déjà posé leurs questions à ChatGPT, la nouvelle intelligence artificielle en libre accès depuis le 30 novembre dernier. Créée par l’entreprise américaine, OpenAI, sa capacité à parler comme un être humain ne cesse de surprendre les internautes.
L’ÉTOILE DU JOUR
« Cette chanson est merdique » : Nick Cave vent debout contre ChatGPT, l’intelligence artificielle qui rédige tout, y compris des chansons
Le chanteur post-punk a répondu à l’un des ses fans qui lui a envoyé une chanson composée par ChatGPT sur son blog pour connaitre son point de vue.
LES NOUVELLES DU MEILLEUR DES MONDES
83 ans après, le général de Gaulle se fait entendre grâce à l’I.A
Cette semaine plusieurs médias se sont amusés avec des technologies d’intelligence artificielle. La radio France Inter a interrogé ChatGPT en direct, le média social Brut a façonné son coup médiatique et le journal Le Monde a réalisé, avec l’Ircam, un clonage vocal du général de Gaulle.
NET PLUS ULTRA
La révolution « ChatGPT-3 » prend les enseignants de court
La nouvelle version de « Chat GPT3 » qui fait fureur chez les étudiants, va plus loin que le simple copier-coller et génère des textes « uniques » bien difficiles à repérer par les enseignants.
Propositions d’exercices
- Faire une analyse critique des émissions radiophoniques (voir supra)