French AI Lab Mistral hat seinen LE-Chat-Chatbot erheblich verbessert und einen leistungsstarken neuen”Deep Research”-Modus eingeführt, um Konkurrenten wie OpenAI und Google direkt herauszufordern. Die neue Feature, die am Donnerstag eingeführt wurde, verwandelt den Assistenten in einen Forschungspartner, der das Web planen, durchsuchen und strukturierte, bezogene Berichte erstellen kann. Mit diesem Start zielt Mistral darauf ab, sowohl Verbraucher-als auch Unternehmensnutzer zu erfassen. Es bietet eine einzigartige lokale Datenintegration für Unternehmen mit vertraulichen Informationen. Alle neuen Funktionen sind jetzt live in den Web-und Mobile-Apps von Le Chat, die über alle Ebenen von Free zu Enterprise verfügbar sind.

Mistrals neuer Deep-Forschungsmodus Verwandelt Le Chat in einen koordinierten Forschungsassistenten. Es bricht komplexe Fragen auf, sammelt glaubwürdige Quellen und erstellt einen Referenzbericht. Die Verwirrung der KI trat dann mit einer zugänglichen, kostengünstigen Alternative in den Kampf ein.

Der Wettbewerbsdruck war unerbittlich. Google hat später für alle Benutzer im März seine Gemini Deep Research-Funktion für alle Benutzer kostenlos gemacht. OpenAI reagierte, indem er im April eine leichte Forschungsoption für seine kostenlose Stufe hinzufügte. Diese Dynamik macht Mistrals Eintrag sowohl zu einem notwendigen als auch zu einem strategischen Schritt, um wettbewerbsfähig zu bleiben. OpenAI hat sein Tool mit einem GitHub-Connector für die Codeanalyse erweitert, und Google fügt Dateien-Upload-Funktionen und eine leistungsstärkere „tiefe Suche“ für Abonnenten hinzu. Ein neuer Sprachmodus, der vom kürzlich veröffentlichten Voxtral-Audiomodell betrieben wird, ermöglicht es Benutzern, mit Le Chat zu interagieren, indem sie auf natürliche Weise sprechen. 

Wenn ein Benutzer eine tiefe Forschung aktiviert, verlagert sich die Erfahrung von einer einfachen Q & A zu einer Zusammenarbeit. Der AI-Agent unterteilt zunächst die komplexe Abfrage in einen mehrstufigen Forschungsplan. Anschließend wird dieser Plan autonom ausgeführt und in einer Vielzahl von glaubwürdigen Webquellen gesucht, um Informationen zu sammeln. Beispiele von Mistral zeigen Berichte mit einer Einführung, detaillierten Abschnitten mit Datentabellen, einer Zusammenfassung und einer Schlussfolgerung. Entscheidend ist, dass jeder wichtige Befund durch nummerierte Zitate unterstützt wird und Transparenz und Überprüfbarkeit bietet. Mistral hebt Anwendungsfälle aus einer eingehenden Marktanalyse für Unternehmensarbeit bis zur Erstellung erschöpfender Reisepläne für Verbraucher hervor. Ziel ist es, einen umfassenden Überblick zu geben, der Stunden manueller Arbeit spart. Die Modelle von Mistral führen jetzt mehrsprachige Argumente direkt im Chatbot aus. Auf diese Weise können komplexe Abfragen in Sprachen wie Französisch, Spanisch und Japanisch und sogar code-switch Mid-Sentence behandelt. Diese Fähigkeit ist ein bedeutender Schritt zu einem global zugänglichen und intuitiveren AI-Assistenten. Mit dieser Funktion können Benutzer zu verwandten Chats, Dateien und Einstellungen in fokussierten Arbeitsbereichen gruppieren, wodurch langlebige Aufgaben organisiert werden. Das Update wird mit einer erweiterten Bearbeitung von In-Chat-Bild abgerundet und ermöglicht eine konsistente Charakter-und Detail-Erhaltung über mehrere Bilder hinweg.

Magistral stellt den strategischen Eintritt von Mistral in den fortschrittlichen Argumentationsraum dar, der mit einem Signature-Ansatz mit zwei Veröffentlichungen ausgeführt wird. Für die Open-Source-Community veröffentlichte das Unternehmen das Magistral Small, ein effizientes Modell mit 24 Milliarden Parametern unter einer zulässigen Apache 2.0-Lizenz. Es ist so konzipiert, dass es auf Hardware der Verbraucher betrieben wird, um für Entwickler und Forscher eine breite Zugänglichkeit zu gewährleisten. Dieses proprietäre Modell wird mit Merkmalen wie „nachvollziehbarem Denken“, einer wichtigen Fähigkeit zur Einhaltung regulierter Branchen wie Finanzen und Recht, vermarktet. Das Unternehmen betont, dass seine Modelle unter Verwendung einer eigenen Infrastruktur von Grund auf gebaut sind, anstatt von rivalisierenden AIs destilliert zu werden, ein Prozess, von dem sie behaupten, dass sie die Verallgemeinerung verbessert. Zum Beispiel blieb die Punktzahl bei der Aime 2024 Math and Science Benchmark hinter neueren Modellen von Konkurrenten zurück. Als Reaktion darauf konzentriert sich Mistral strategisch auf andere Stärken, wie überlegene mehrsprachige Argumente und eine”Flash-Answers”-Feature in Le Chat, die die Geschwindigkeit gegenüber der Rohleistung priorisiert. Das Unternehmen betont seine Fähigkeit, Le Chat mit den internen Daten eines Unternehmens vor Ort zu verbinden. Dies ist ein kritisches Unterscheidungsmerkmal von Cloud-nativen Konkurrenten wie OpenAI und Google. Diese lokale Fähigkeit ist ein zentraler Bestandteil des Wertversprechens von Mistral, insbesondere für Sektoren wie Banken, Verteidigung und Regierung. Salamanca bestätigte diese Richtung und sagte:”Wir bauen diese Anschlüsse intern auf, weil wir der Ansicht sind, dass dies ein Schlüssel für die Verwendung von Le Chat als Produktivitäts-Enabler im geschäftlichen Kontext sein wird.”Der Ansatz scheint mit denen in Ansichten der großen Tech-Dominanz in Schwung zu kommen. Der CEO von Verwirrigkeit AI, Aravind Srinivas, kritisierte zuvor die hohen Kosten der Unternehmens-KI und argumentierte: „Wissen sollte allgemein zugänglich und nützlich sein. Nicht hinter obszön teuren Abonnementplänen, die den Unternehmen zugute kommen, nicht im Interesse der Menschheit!“ Mistrals Mischung aus Open-Source-Modellen und Secure Enterprise Solutions bietet eine überzeugende Alternative in einem sich schnell entwickelnden Markt.

Categories: IT Info