Alors que la période du bac en Algérie bat son plein cette année, un sujet captivant a été spécialement concocté pour vous a savoir les États-Unis confrontent à l’épreuve l’IA ChatGPT. Cette initiative vise à explorer les capacités de cette intelligence artificielle dans un contexte académique.
Le sujet choisi suscite un grand intérêt parmi les étudiants et les enseignants. Il offre l’occasion d’évaluer les compétences de ChatGPT et de voir si cette IA peut fournir des réponses pertinentes et approfondies, similaires à celles d’un candidat humain.
Bien que ChatGPT ait récemment réussi divers tests dans différents domaines aux États-Unis, notamment le barreau américain et les concours scientifiques, cela ne garantit pas nécessairement son excellence dans tous les domaines.
Dans le cadre du récent bac Philo 2023, le sujet « Le bonheur est-il affaire de raison ? » a été confié à ChatGPT ainsi qu’à des philosophes renommés tels que Raphaël Enthoven. Alors que les candidats humains ont besoin de temps pour traiter cet exercice, ChatGPT a rendu sa copie en moins d’une minute. Cependant, il est rapidement apparu que la réponse fournie par ChatGPT était loin d’être à la hauteur des attentes.
ChatGPT et le philosophe Raphaël Enthoven
On constate que ChatGPT n’a pas donné des réponses totalement à côté de la plaque. Dans l’ensemble de ce que nous avons pu lire, ChatGPT a réagi rapidement au sujet, en moins d’une minute. Cependant, les notes obtenues oscillent entre 11/20 et un maximum de 12/20.
L’un des affrontements les plus intéressants a eu lieu entre ChatGPT et le philosophe Raphaël Enthoven. Ce dernier a consacré une heure et quart à traiter le sujet (les candidats à l’épreuve ont jusqu’à quatre heures pour disserter dessus).
Les copies du philosophe et de l’IA ont été anonymisées afin de ne pas influencer les correcteurs. Cependant, ceux-ci ont rapidement identifié les auteurs respectifs. Raphaël Enthoven a obtenu la note maximale de 20/20, tandis que ChatGPT a obtenu un modeste 11/20.
Dans un article de France3 Régions, l’accent est mis sur la nature mécanique de l’argumentation présentée dans la copie soumise par ChatGPT. Selon l’article, il y a une « apparence de réflexion » uniquement lorsque l’IA est sollicitée pour corriger les défauts identifiés dans son premier essai en utilisant une seconde consigne.
Un enseignant, cité par France3, partage également son point de vue en affirmant que « bien qu’une machine puisse maîtriser la rhétorique, l’art de bien s’exprimer et donner l’apparence, cela ne signifie pas nécessairement qu’elle est liée à des réflexions profondes »…
Ces observations soulignent les limites actuelles de ChatGPT dans le domaine de la réflexion et de l’analyse critique. Bien que l’IA puisse produire des réponses rapidement, son niveau de compréhension et de réflexion reste en deçà de celui des individus humains.
Pour l’instant, il semble donc que ChatGPT soit plus limité dans le domaine de la philosophie, du moins dans sa version actuelle du modèle. Cependant, il est fort probable que cela évolue rapidement avec l’arrivée de nouveaux modèles de langage plus puissants.