Anthropic hat neue „Lernmodi“ für den Claude AI-Assistenten gestartet und seine Nachhilfefunktionen im sokratischen Stil allen Benutzern und Entwicklern zur Verfügung gestellt. Der Wechsel vom 14. August eskaliert ein heftiges, Back-to-School-Rennen mit OpenAI und Google, die kürzlich ähnliche Tools für ihre eigenen Chatbots debütierten. Ziel ist es, weit verbreitete Bedenken hinsichtlich der akademischen Integrität zu bewältigen, während sie um die Zukunft des Marktes für milliardenschwere Bildungstechnologie konkurrieren. 14. Der Modus verändert den Interaktionsstil der KI grundlegend. Anstatt sofortige Lösungen zu geben, wendet es eine sokratische Methode an, in der Benutzer Fragen befragten, um sie zu ihren eigenen Schlussfolgerungen zu führen. Diese Verschiebung ragt den Chatbot von einer einfachen Antwort-Engine in einen Gedankenpartner um, der für „Guided Discovery“ entwickelt wurde. Drew Bent von Anthropics Bildungsleiter enthüllte, dass das Merkmal entwickelt wurde, nachdem die Schüler sich Sorgen um „Gehirnfäule“ aus der passiven KI-Verwendung ausdrückten.”Wir stellten fest, dass sie selbst erkannt haben, dass es nicht gut für ihr langfristiges Lernen ist, wenn sie nur etwas direkt von einem Chat-Bot kopieren und einfügen”, erklärte er und hob eine benutzerorientierte Nachfrage nach mehr pädagogischen soliden Tools hervor. Jetzt kann jeder Benutzer das Tutor-ähnliche Verhalten kostenlos aktivieren, indem er einfach”Lernen”im Style Dropdown-Menü in der Chat-Oberfläche auswählt. Diese breite Verfügbarkeit positioniert Claude auf OpenAIs”Studienmodus”für ChatGPT, der Ende Juli gestartet wurde, und Googles”Guided Learning”für Gemini, das Anfang August debütierte. Wählen Sie in jedem Chat den Stil”Lernen”aus, damit Sie Claude durch harte Konzepte führen, anstatt sofortige Antworten zu geben. pic.twitter.com/jknmo6nlg4
-Claude (@claudeai) August 14, 2025
The AI Arms Race for the Classroom
Diese Rapid-Fire-Freisetzungen signalisieren einen intensifizierenden Kampf für den lukrativen Markt für Bildungstechnologie, einen Sektor im Wert von rund 340 Milliarden US-Dollar weltweit. Das Timing, das strategisch mit der Back-to-School-Saison übereinstimmt, ist kein Zufall. Große KI-Labors rennen ihre Technologie in Universitätsworkflows und betrachten Bildungseinrichtungen als ein kritisches Schlachtfeld. Als Anthropics Drew Bent
Dieser Trend stellt einen bedeutenden branchenweiten Drehpunkt dar. Unternehmen erfreuen ihre KI-Tools absichtlich als konstruktive Partner für das Lernen und wechseln über ihren Ruf hinaus als einfache Betrugswerkzeuge. Diese Verschiebung ist ein direkter Versuch, Skeptiker in der Wissenschaft zu gewinnen, die sich dem Potenzial der akademischen Integrität von AI vorsichtig machen. Microsoft machte im März 2024 ein bedeutendes Stück früher und erweiterte den Zugang zu seinem Copilot für Microsoft 365 auf die Hochschulbildung. Dieser Schritt nutzte seinen immensen Ökosystemvorteil, indem sie KI-Funktionen in bestehende Softwarelizenzen bündeln, für die viele Universitäten bereits einen nahezu reibungslosen Weg zur Adoption erzeugen. Anthropic selbst führte im April 2025 zum ersten Mal einen sokratischen „Lernmodus“ mit seinem Start für Bildungstart ein und sichert Partnerschaften mit Institutionen wie der Northeastern University. Einen Monat später enthüllte Openai Chatgpt Edu im Mai 2024, ein von Universitäten wie der University of Oxford und der Arizona State University angenommenes Angebot. Während anthropisch und openai gegen pädagogische Ausrichtung konkurrieren, wehrt Google mit einem zweizackigen Ansatz. Neben dem feature-fokussierten „geführten Lernen“-Tool verwendet es aggressive Preisanreize und bietet den Schülern in mehreren Ländern den KI-Pro-Plan kostenlos, um die Marktdurchdringung voranzutreiben. Umgebungen (IDES). Dieser Schritt richtet sich ausdrücklich auf ein wachsendes Problem in der Technologiebranche: Der Aufstieg von Junior-Programmierern, die mit KI Code generieren können, aber Schwierigkeiten haben, ihre eigene Arbeit zu verstehen oder zu debuggen. Wie ein anthropischer Sprecher feststellte, ist die Realität, dass diese Entwickler einen bedeutenden Zeitraum dafür verbringen können, Code zu überprüfen, den sie nicht geschrieben haben, und manchmal nicht verstehen. Als Claude funktioniert eine detaillierte Erzählung seines Entscheidungsprozesses, in dem die Entscheidungen und Kompromisse, die es auf dem Weg trifft, erklärt. Dieser laufende Kommentar bietet den Benutzern die Möglichkeit,”unter der Haube”zu schauen und die Logik hinter dem generierten Code besser zu verstehen und eine einfache Generation auf eine Lernmöglichkeit zu verwandeln. Hier wird Claude gelegentlich innehalten, was es tut, und markieren einen Abschnitt mit einem”#Todo”-Kommentar, der den Benutzer auffordert, fünf bis zehn Zeilen ihres eigenen Codes zu schreiben, um die Aufgabe zu erledigen. Dieser Ansatz soll allen Entwicklern helfen, von Hobbyisten bis hin zu Fachleuten, nicht nur vollständige Aufgaben, sondern auch „wachsen und lernen und ihre Codebasis besser verstehen“. Laut Drew Bent starten wir in der Anthropic. pic.twitter.com/vu6p8cizbf -claude (@claudeai) August 14, 2025 betonte
Diese Unterscheidung ist kritisch. Kritiker stellen fest, dass die zugrunde liegenden Modelle jede fehlerhafte Erklärung im Internet absorbiert haben und die Tatsachen nicht zuverlässig von selbstbewussten Unwahrheiten unterscheiden können. Dies schafft das Risiko, dass Schüler das Material erfunden haben, ein Punkt, der gegen den OpenAI-Studienmodus angehoben wird.
Im Gegensatz dazu behauptet Google, dass sein geführtes Lernen durch seine speziell gebauten Learnlm-Modelle angetrieben wird, die in Bildungsdaten fein abgestimmt sind. Das Google-Tool verwendet auch einen multimodalen Ansatz mit Diagrammen, Videos und Quiz, um das Verständnis zu unterstützen. Leah Belsky, der Leiter von OpenAI, behauptet, mit diesen Tools können wir die Lücke zwischen denjenigen mit dem Zugang zu Lernressourcen und einer qualitativ hochwertigen Bildung und denjenigen schließen, die historisch zurückgelassen wurden.”Die endgültige Verantwortung für eine effektive Umsetzung liegt bei Pädagogen und Institutionen. Sie müssen das Versprechen von zugänglichem, rund um die Uhr nachgelassenen KI-Tutorien gegen die Risiken von Schülern abwägen