ChatGPT rend-il les étudiants paresseux ? - Aperçu d'une utilisation judicieuse de l'IA à l'Université de Berne

27.03.24
Télécharger en PDF
Auteur
Carol Blaser

Résumé pour vous :

L'intelligence artificielle (IA) se développe à un rythme effréné et peut de plus en plus prendre en charge le travail humain. Sur le plan social, nous sommes donc confrontés à la question de savoir comment nous voulons organiser la collaboration avec l'intelligence artificielle. Dans un entretien, le professeur Claus Beisbart, philosophe des sciences, donne un aperçu de l'intégration de l'IA à l'Université de Berne.

L'avenir des paresseux

La Fondation UniBE se concentre sur la promotion de la recherche qui est orientée vers l'avenir et innovante, c'est pourquoi l'IA est un thème récurrent chez nous. Les domaines d'activité de l'IA s'élargissent de plus en plus. Aujourd'hui, une IA comme ChatGPT peut déjà prendre en charge des activités créatives du travail humain - par exemple la production de texte. Il semble que les systèmes d'IA prennent de plus en plus en charge la réflexion et la résolution des problèmes des humains. Il est donc possible que nous puissions bientôt consacrer plus de temps à nos hobbies grâce à l'IA. Mais que se passe-t-il si l'utilisation à grande échelle de l'IA rend paresseux ? Pour un groupe de réflexion comme l'Université de Berne, une telle évolution serait tout à fait dangereuse.

Dans un entretien avec Claus Beisbart, professeur de philosophie des sciences à l'Institut de philosophie, je m'intéresse aux conséquences de l'utilisation de l'IA à l'université et aux défis sociaux auxquels nous devrons faire face à l'avenir.


Entretien avec le professeur Claus Beisbart

UniBE Foundation : Monsieur Beisbart, qu'est-ce qui vous a poussé à mettre l'accent sur l'IA et l'éthique dans vos recherches ?

Actuellement, de nombreux chemins mènent à l'intelligence artificielle. Dans le cadre de la philosophie des sciences, j'ai déjà travaillé sur des méthodes informatiques. L'accent était mis sur les simulations informatiques, utilisées par exemple dans les sciences climatiques pour faire des prévisions. Actuellement, les simulations informatiques sont de plus en plus remplacées ou complétées par ce que l'on appelle le 'machine learning'. Ce 'machine learning' fait actuellement l'objet d'un véritable engouement. Ce qui m'intéresse, c'est ce qui se passe avec les sciences lorsque de tels procédés, qui sont pour nous en grande partie des 'boîtes noires', sont appliqués. L'éthique aussi devient vite pertinente. Par exemple, une question éthique est de savoir ce que nous devons savoir sur une application de l'IA pour pouvoir l'utiliser en médecine par exemple.


L'IA prend des décisions pour parvenir à une solution. La plupart du temps, les processus de décision ne sont pas visibles pour nous. De plus, nous ne comprenons pas pourquoi l'IA a pris une certaine décision. Si tel est le cas, l'IA est alors considérée comme boîte noire.


Quels moyens pratiques voyez-vous pour intégrer une IA inclusive et transparente dans la recherche ?

Il y a des approches très différentes. Un grand problème pour les universités est que ChatGPT et d'autres grands modèles viennent de l'industrie. Nous ne les avons pas faits nous-mêmes et ne pouvons les étudier qu'a posteriori, comme ils peuvent étudier tous les utilisateurs. L'université devrait prendre les devants et développer elle-même des modèles. Une autre approche est l'intelligence artificielle explicable (XAI). Cela signifie que l'IA est construite dès le départ de manière à être plus compréhensible. Dans les approches axées sur l'interprétabilité, on essaie de rendre les algorithmes compréhensibles a posteriori grâce à une étude précise. De tels procédés devraient être développés à l'université afin qu'ils puissent ensuite être utilisés dans la pratique.

"Nous devons absolument utiliser l'IA. S'y opposer ne sert à rien".

Et que peut-on faire dans l'enseignement ?

En tant qu'université, nous contribuons à l'information sur l'IA. Il est important que les gens sachent exactement comment l'IA fonctionne, quels en sont les dangers, mais aussi les opportunités, afin qu'ils puissent la gérer avec sensibilité. Nous avons ici une mission éducative importante. C'est dans ce contexte que nous devons absolument utiliser l'IA. S'y opposer ne sert à rien. Il s'agit de trouver une manière responsable de l'utiliser.

Vous avez développé un module numérique sur l'éthique et l'IA pour les étudiants. Qu'est-ce qui vous a motivé ?

Le vice-rectorat de l'enseignement a eu l'excellente idée de créer un module en ligne "Compétences pour l'avenir (numérique)" pour les étudiants de toutes les disciplines. J'y ai volontiers apporté ma contribution sur le plan éthique. La société doit créer des conditions cadres permettant d'intégrer l'IA dans notre vie de manière compatible. Il est important que les entreprises ne soient pas les seules à faire avancer les choses et à mener leur propre politique. Je pense que nous, les humains, devons nous demander où et comment nous voulons utiliser l'IA. En fin de compte, c'est précisément ce qui m'intéresse dans ce module : encourager la réflexion personnelle sur l'IA.

Cliquez ici pour le teaser du module en ligne "Éthique et numérisation".

Depuis son introduction il y a un peu plus d'un an, ChatGPT est devenu un compagnon constant dans le quotidien de l'unité. Quels défis voyez-vous dans l'utilisation de cette IA dans un contexte universitaire ?

Nous avons déjà parlé de l'opacité de l'IA. ChatGPT n'est en outre pas formé pour dire la vérité ou citer des sources. Ce n'est pas très pratique pour un travail académique. Il faut donc bien réfléchir à l'utilisation que l'on fait de ChatGPT. Je vois ChatGPT comme une tentative d'établir une sorte de moyenne de ce qui est dit dans les données d'entraînement tirées d'Internet. Donc, si je m'intéresse à ce qui se dit en général sur le sujet, ChatGPT est la bonne adresse. Mais si je m'intéresse à la vérité ou à la justification et aux sources, alors ChatGPT devient difficile.

Comment avez-vous vécu l'utilisation de ChatGPT par les étudiants au cours de l'année écoulée ?

Ce semestre, j'ai enseigné pour la première fois depuis l'introduction de ChatGPT notre cours de méthodologie, dans lequel on s'exerce à l'écriture philosophique. Pour les petits exercices, j'ai permis aux étudiants de recourir à ChatGPT. L'enthousiasme était toutefois limité. De manière générale, j'ai l'impression que nos étudiants en philosophie aiment écrire eux-mêmes. Ils comprennent qu'ils doivent apprendre à écrire et sont intéressés à le faire. En philosophie, en particulier, l'expression linguistique et la pensée sont étroitement liées.

Les travaux et les essais sont susceptibles d'être rédigés avec ChatGPT. Il serait possible d'introduire d'autres formes d'évaluation, par exemple des examens oraux. Qu'en pensez-vous ?

Je vois déjà un certain problème avec ChatGPT. Il s'améliore de plus en plus et d'autres modèles de langage peuvent être utilisés. Grâce à un prompting habile, on se rapprochera sans doute de plus en plus d'un bon travail de séminaire dans un avenir proche. Celui-ci est difficile à distinguer des 'vrais' travaux de séminaire ou des essais. En outre, il existe des possibilités de retravailler le texte et d'introduire quelques fautes d'orthographe pour que le texte ressemble davantage à un travail d'étudiant.

Même s'il y a un risque de fraude, je ne voudrais pas aller jusqu'à supprimer le travail de séminaire. Chez nous, en philosophie, les travaux de séminaire sont très importants. Les étudiants se penchent de manière approfondie sur un sujet pendant une longue période. En fin de compte, il s'agit d'une évolution de la pensée qui, pour moi, fait partie du développement personnel. Les étudiants remettent en question leurs hypothèses, introduisent de nouveaux concepts et affinent leur argumentation. Ce processus est pertinent pour leur propre réflexion. Il n'est pas possible de l'exiger de cette manière lors d'un examen oral. Mais ce qui peut être fait, c'est de débriefer un travail de séminaire. Cela me permet de voir dans quelle mesure l'étudiant(e) a compris le sujet et, le cas échéant, si le travail remis est vraiment sa propre réalisation. Un tel entretien a également une valeur pédagogique pour d'autres raisons - par exemple pour clarifier des malentendus qui ont pu survenir lors de la correction.

La numérisation exige que l'homme et la machine travaillent ensemble. Quelles sont les opportunités ?

La grande chance est que l'IA se charge de travaux que nous n'aimons pas faire. Les tâches inintéressantes ou ennuyeuses pourraient donc être prises en charge par l'IA. Il est également possible que l'IA fasse ce travail mieux que nous. Par exemple, en médecine, l'IA fournit parfois de meilleurs diagnostics que l'homme - mais il s'agit ici de domaines de tâches très spécifiques.

Et quels sont les risques ?

Je travaille avec des méthodes informatisées. Mon équipe et moi avons un projet de recherche qui tente de mettre en œuvre des réflexions morales et philosophiques sur l'ordinateur, ce qui peut être considéré comme un début d'IA. Il ne s'agit toutefois pas de 'machine learning', qui est actuellement très en vogue. Il s'agit néanmoins d'une forme d'intelligence artificielle, puisque les processus de réflexion humains sont reproduits par un ordinateur. Le raisonnement moral est un peu simulé. En outre, j'ai quelques idées sur la manière dont je pourrais utiliser ChatGPT dans la recherche, mais je ne les ai pas encore réalisées.

"Nous voulons à tout prix une science humaine".

Pensez-vous que les chercheurs deviendront un jour inutiles à cause de l'IA ?

Non, je ne pense pas. Mais il faut dire que l'IA est très bonne en ce qui concerne les performances individuelles. Ce sont toujours des tâches spécialisées que l'IA prend en charge et pour lesquelles elle peut être entraînée de manière à être meilleure qu'un être humain. Mais ce qui manque jusqu'à présent à l'IA, c'est une intelligence générale. L'IA ne peut pas non plus décider facilement d'un sujet de recherche pertinent et de l'utilisation de mon temps et de mes ressources. Nous voulons en tout cas une science humaine, et non une science automatique qui étudie quelque chose sur lequel nous n'avons plus aucune influence. En l'état actuel des choses, l'homme est également nécessaire pour de nombreuses prestations intellectuelles, par exemple pour établir des liens entre les différents domaines. Dans un avenir prévisible, l'homme sera donc encore nécessaire.


Après une demi-heure, je prends congé de Monsieur Beisbart. L'entretien m'a montré qu'avec l'IA, de nouvelles voies intéressantes s'ouvrent à nous à l'université et dans la société pour traiter le savoir de manière créative. Mais il m'a également fait réfléchir et m'a montré que nous, en tant que société, participons de manière déterminante à la conception de l'utilisation de l'IA dans la vie quotidienne et à l'université. Nous ne devrions donc pas avoir peur de nous y intéresser.


PROF. CLAUS BEISBART est professeur à l'Institut de philosophie, spécialisé dans la philosophie des sciences, à l'Université de Berne. Il est également associé au Center for Artificial Intelligence in Medicine (CAIM).

En collaboration avec l'Institut de philosophie, le domaine de la didactique universitaire et du développement de l'enseignement ainsi que le service de soutien pour l'enseignement et la recherche basés sur les TIC (iLUB), il donne un aperçu de l'éthique de la numérisation dans un module en ligne. Image zvg


INTELLIGENCE ARTIFICIELLE (KI) sont des technologies qui imitent les processus cognitifs humains et sont décrites comme intelligence artificielle. Au sein de l'IA, on distingue grossièrement l'IA faible et l'IA forte.

Une IA forte peut identifier de manière autonome les tâches à accomplir et y trouver une solution. Elle peut acquérir de manière autonome les connaissances nécessaires à la résolution des problèmes. Une IA forte peut donc gérer les connaissances de manière créative et innovante, tout comme un être humain peut le faire. Cependant, une telle IA n'a pas encore été réalisée.

IA faible résout des problèmes spécifiques et récurrents. Elle est entraînée à reconnaître des modèles, comme le fait par exemple un système de navigation ou une application de reconnaissance vocale. ChatGPT est également une IA faible. Il s'agit d'un modèle linguistique basé sur l'apprentissage automatique.

APPRENTISSAGE AUTOMATIQUE
Le processus de développement de modèles statistiques basés sur des algorithmes auto-adaptatifs est appelé 'machine learning'. Celui-ci permet à l'IA de reconnaître des modèles et des relations dans de grands ensembles de données. L'IA peut ensuite appliquer les modèles reconnus à des situations inconnues afin d'y réagir et de faire des prévisions. Aujourd'hui, l'IA la plus intéressante repose sur le fait que les systèmes apprennent des succès et des échecs de leur application.

Un type particulièrement puissant de 'machine learning' est Apprentissage profond. Celle-ci fait intervenir de nombreuses couches de neurones artificiels. ChatGPT a également recours à cette technologie. Elle est capable de reconnaître des modèles dans des ensembles de données particulièrement importants et de faire ensuite des prévisions possibles.


chevron-down