Anthropic a lancé de nouveaux «modes d’apprentissage» pour son assistant Claude AI, mettant ses fonctionnalités de tutorat de style socratique disponibles pour tous les utilisateurs et développeurs. Le déménagement du 14 août augmente une course féroce et de retour à l’école avec Openai et Google, qui ont récemment fait leurs débuts outils similaires pour leurs propres chatbots.

Ce pivot stratégique des meilleurs laboratoires de l’industrie recadre une IA d’un simple moteur de réponse en un partenaire d’apprentissage collaboratif. L’objectif est de répondre à des préoccupations généralisées concernant l’intégrité académique tout en concurrençant pour définir l’avenir du marché de la technologie d’éducation de plusieurs milliards de dollars.

du moteur de réponse à Socratic Tutor

Dans un défi direct à ses rivaux, anthropic a fait son”mode d’apprentissage”pour tous les utilisateurs de son intervenant de son fonctionnaire. 14. Le mode transforme fondamentalement le style d’interaction de l’IA. Au lieu de dispenser des solutions immédiates, il utilise une méthode socratique, engageant les utilisateurs avec des questions de sondage pour les guider vers leurs propres conclusions. Ce changement recadre le chatbot d’un moteur de réponse simple dans un partenaire de pensée conçu pour «découverte guidée». Le responsable de l’éducation d’Anthropic, Drew Bent, a révélé que la fonctionnalité a été développée après que les élèves ont exprimé des inquiétudes quant à la «pourriture du cerveau» de l’utilisation passive de l’IA.”Nous avons constaté qu’ils ont eux-mêmes réalisé que lorsqu’ils copient et passent quelque chose directement à partir d’un bot de chat, ce n’est pas bon pour leur apprentissage à long terme”, a-t-il expliqué, mettant en évidence une demande axée sur l’utilisateur pour des outils plus sains plus éducatifs.

Ce communiqué public évolue d’abord une fonctionnalité pilotée en avril 2025 pour les utilisateurs”Claude for Education”d’Anthropic. Désormais, tout utilisateur peut activer gratuitement le comportement de type tuteur en sélectionnant simplement «l’apprentissage» dans le menu déroulant Style dans l’interface de chat. Cette large disponibilité positionne carrément Claude contre le «mode d’étude» d’Openai pour Chatgpt, lancé fin juillet, et «l’apprentissage guidé» de Google pour Gemini, qui a fait ses débuts début août.

et pour tous les utilisateurs d’applications: nous apportons notre style «d’apprentissage» (d’abord introduit dans Claude for Education) à tous. Sélectionnez le style «d’apprentissage» dans n’importe quel chat pour que Claude vous guide à travers des concepts durs plutôt que de fournir des réponses immédiates. pic.twitter.com/jknmo6nlg4

-Claude (@claudeai) 14 août, 2025

Ces versions rapides signalent une bataille d’intensification pour le marché lucratif des technologies de l’éducation, un secteur évalué à environ 340 milliards de dollars dans le monde. Le timing, stratégiquement aligné sur la saison arrière à l’école, n’est pas une coïncidence. Les principaux laboratoires AI courent pour intégrer leur technologie dans les flux de travail universitaires, considérant les établissements d’enseignement comme un champ de bataille critique. En tant que Drew Bent de Anthropic

Cette tendance représente un pivot important à l’échelle de l’industrie. Les entreprises recadrent délibérément leurs outils d’IA en tant que partenaires constructifs pour l’apprentissage, allant au-delà de leur réputation de simples outils de triche. Ce changement est une tentative directe de gagner des sceptiques dans le monde universitaire qui se méfient du potentiel de l’IA à saper l’intégrité académique.

Les bases de cette confrontation ont été posées au cours de la dernière année. Microsoft a fait un jeu significatif beaucoup plus tôt, élargissant l’accès à son copilote pour Microsoft 365 à l’enseignement supérieur en mars 2024. Cette décision a tiré parti de son immense avantage écosystémique en regroupant les capacités d’IA dans les licences logicielles existantes que de nombreuses universités paient déjà, créant un chemin presque sans friction à l’adoption. Anthropic lui-même a d’abord introduit un «mode d’apprentissage» de style socratique avec son lancement de Claude for Education en avril 2025, obtenant des partenariats avec des institutions comme la Northeastern University. Un mois plus tard, OpenAI a dévoilé Chatgpt Edu en mai 2024, une offre de qualité d’entreprise adoptée par des universités telles que l’Université d’Oxford et l’Arizona State University.

Cela a conduit à un paysage où chaque géant technologique déploie une stratégie unique pour capturer le marché. Alors que Anthropic et Openai rivalisent sur l’alignement pédagogique, Google riposte avec une approche à deux volets. Alongside its feature-focused “Guided Learning”tool, it is using aggressive pricing incentives, offering its AI Pro plan free for a year to students in several countries to drive market penetration.

A Collaborative Approach for Developers

Beyond its general chatbot, Anthropic has introduced two specialized learning modes for its Claude Code assistant, a tool available directly in the terminal or integrated development environnements (ides). Cette décision cible spécifiquement une préoccupation croissante dans l’industrie technologique: la montée des programmeurs juniors qui peuvent générer du code en utilisant l’IA mais qui ont du mal à comprendre ou à déboguer leur propre travail. Comme l’a noté un porte-parole anthropique, la réalité est que ces développeurs peuvent finir par passer beaucoup de temps à revoir le code qu’ils n’ont pas écrit et parfois ne comprennent pas.

La première nouvelle option, le mode”explicatif”, est conçu pour fonctionner un peu comme un développeur senior mentorant un collègue. Au fur et à mesure que Claude fonctionne, il fournit une narration détaillée de son processus décisionnel, expliquant les choix et les compromis qu’il fait en cours de route. Ce commentaire en cours donne aux utilisateurs une chance de regarder «sous le capot» et de mieux comprendre la logique derrière le code généré, transformant une tâche de génération simple en une opportunité d’apprentissage.

La deuxième option, le mode «d’apprentissage» plus robuste, crée une session de codage vraiment interactive et collaborative. Ici, Claude interrompra occasionnellement ce qu’il fait et marquera une section avec un commentaire”#todo”, incitant l’utilisateur à écrire cinq à dix lignes de son propre code pour terminer la tâche. Cette approche est conçue pour aider tous les développeurs, des amateurs aux professionnels, pas seulement des tâches complètes, mais aussi «grandir et apprendre dans le processus et mieux comprendre leur base de code», selon Drew Bent, éducation en éducation à Anthropic.

Aujourd’hui, nous lançons de nouvelles façons d’apprendre dans le code CLAUD pic.twitter.com/vu6p8cizbf

-Claude (@claudeai) le 14 août 2025 productivité. Cependant, Anthropic soutient qu’il représente une compréhension plus sophistiquée de l’efficacité qui priorise le développement des compétences à long terme parallèlement à la production immédiate. Cette philosophie humaine dans la boucle va à l’encontre de la tendance plus large de l’industrie vers des agents d’IA entièrement autonomes.

porte-parole de l’entreprise a souligné ,”Nous ne construisons pas d’IA qui remplace la capacité humaine-nous construisons l’IA qui l’améliore de manière réfléchie pour différents utilisateurs et les cas d’utilisation,”positionnant l’outil en tant que partenaire de renforcement des compétences plutôt que de remplacement de l’expertise humaine.

ou des modes d’apprentissage. Bent espère que ces outils permettront à tout codeur de développer l’œil vif d’un”très bon directeur d’ingénierie”, qui comprend comment tout s’intègre, même s’il n’écrit pas chaque ligne de code eux-mêmes.

derrière le rideau socratique: une division technique

Alors que ces nouveaux modes Socratics représentent un pas en avant, la technologie sous-liée des variétés. Anthropic et OpenAI semblent tous deux utiliser des invites de système modifiées pour guider le comportement de leurs modèles. Cela permet une itération rapide mais signifie que le tuteur est une couche au-dessus d’une IA à usage général

Cette distinction est critique. Les critiques notent que les modèles sous-jacents ont absorbé chaque explication erronée sur le Web et ne peuvent pas distinguer de manière fiable les faits des mensonges à consonance confiante. Cela crée un risque d’enseigner aux étudiants fabriqués du matériel, un point soulevé contre le mode d’étude d’Openai.

En revanche, Google affirme que son apprentissage guidé est propulsé par ses modèles Learnlm spécialement conçus, qui sont affinés sur les données éducatives. L’outil de Google utilise également une approche multimodale avec des diagrammes, des vidéos et des quiz pour faciliter la compréhension.

Équilibrage de la promesse et du péril

Les partisans encadrent ces outils comme un grand égaliseur. Le responsable de l’éducation d’Openai, Leah Belsky, affirme avec ces outils: «Nous pouvons commencer à combler l’écart entre ceux qui ont accès aux ressources d’apprentissage et à l’éducation de haute qualité et à ceux qui ont été historiquement laissés pour compte.»

Cependant, la tentation de simplement éloigner le mode d’apprentissage pour une réponse rapide reste à un clic. La responsabilité ultime d’une mise en œuvre efficace incombe aux éducateurs et aux établissements. Ils doivent peser la promesse d’un tutorat accessible 24/7 de l’IA contre les risques des élèves apprenant des informations erronées ou en contournant l’effort cognitif essentiel pour l’apprentissage en profondeur.

Categories: IT Info