Google hat Gemma 3 vorgestellt, die neueste Iteration in seiner Reihe von Open-Source-KI-Modellen, die so konzipiert sind, dass sie effizient über eine Vielzahl von Geräten arbeiten, von Smartphones bis hin zu Hochleistungs-Workstationen. Diese Veröffentlichung zeigt die Verpflichtung von Google zur Verbesserung der KI-Zugänglichkeit und-leistung auf verschiedenen Plattformen neben seinen Google Gemini-Modellen. AI-Modelle, mit denen Entwickler erweiterte KI-Funktionen auf einem breiteren Bereich von Geräten implementieren können. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=mtcxmtoxmtm1-1; Base64, Phn2ZyB2AWV3QM94psiwidagmtaynca4md UiiHdpzhropsixmdi0iibozwlnahq9ijgwnSIG1SBNM9IMH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2ZZ4=”>

Verbesserte multimodale Funktionen und Sprachunterstützung

Aufbauung auf früheren Versionen führt Gemma 3 multimodale Funktionen ein und ermöglicht es, Text, Bilder und kurze Videos zu verarbeiten. Dieser Fortschritt erweitert den Umfang potenzieller Anwendungen von der Erstellung von Inhalten bis zur komplexen Datenanalyse. Das erweiterte Kontextfenster von 128.000 Token ermöglicht die Verarbeitung umfangreicher Datensätze und komplizierter Aufgaben, wodurch der Nutzen in verschiedenen Szenarien verbessert wird. href=”https://huggingface.co/collections/google/gemma-3-release-67c6f89c4f76621268bb6d”> kommt in einer Reihe von Größen (1B, 4B, 12B und 27B) , um die besten Hardware und die Auswahl des Modells für Ihre spezifischen Hardware und Leistung zu ermöglichen. Versionen, Reduzierung der Modellgröße und Rechenanforderungen bei der Aufrechterhaltung einer hohen Genauigkeit. 

Entwickler können über Plattformen wie Google AI Studio, Vertex AI, Kaggle und das umarmende Gesicht auf Gemma 3 zugreifen, was die nahtlose Integration in verschiedene Projekte erleichtert. Darüber hinaus sind quantisierte Versionen von Gemma 3 verfügbar, die eine schnellere Leistung und reduzierte Rechenanforderungen ohne Kompromissgenauigkeit bieten. 3

Gemma 3, insbesondere seine 27B-Variante, hat in den jüngsten Bewertungen eine bemerkenswerte Leistung gezeigt. Neben Modellen wie O1-Präview und vor vielen anderen nicht denkenden offenen Modellen ist der ELO-Score ein Ergebnis von Vergleiche mit menschlichen Präferenzen, was einen umfassenden Indikator für die interaktiven Funktionen des Modells bietet. Für das allgemeine Sprachverständnis erreichte es im MMLU-Pro-Test eine Punktzahl von 67,5. Bei Coding-bezogenen Benchmarks erzielte es 29,7 auf LivecodeBench und 54,4 auf Bird-SQL, wodurch solide Fähigkeiten zur Abfragestation von Problemlösungen und Datenbank nachgewiesen wurde. Seine Argumentationsfähigkeiten spiegelten sich in einer 42,4-Punktzahl auf GPQA Diamond wider, die sich in mathematischen Aufgaben mit einem 89,0 auf dem Mathematik-Benchmark hervorgetan hat. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtcymjoxmdg5-1; Base64, Phn2zyb2AWV3QM94psiwidagmtaynca0mzeii Hdpzhropsixmdi0iibozwlnahq9ijqzmSig1sbnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”> Google Gemma 3-Benchmark-Leistung im Vergleich zu anderen führenden Modellen (Quelle: Google)

Die sachliche Genauigkeit und das Verständnis des realen Wissens wurden anhand der Fakten nach Erdung und MMMU-Bewertungen bewertet, bei denen Gemma 3 74,9 bzw. 64,9 bewertete. Diese Ergebnisse bestätigen seine Funktionen bei der Behandlung multimodaler Daten und der Gewährleistung der Genauigkeit in sachlichen Antworten. Die Leistung des durch SimpleQA dargestellten grundlegenden sachlichen Abrufs blieb jedoch im Vergleich zu den früheren Gemini 1.5-Modellen von Google mit 10,0. Während Gemini 2-Modelle in bestimmten speziellen Aufgaben immer noch führen, unterstreicht die Leistungs-und Zugänglichkeitsbilanz von Gemma 3 seinen Wert für Entwickler, die eine Open-Source-Lösung für eine qualitativ hochwertige AI-Lösung suchen. Um explizite, schädliche oder irreführende Materialien zu erkennen und zu filtern. Vorgänge.

Categories: IT Info