Google DeepMind hat Gemini Robotics und Gemini Robotics-er eingeführt, zwei fortgeschrittene KI-Modelle, die entwickelt wurden, um die Lern-und Anpassung an physische Aufgaben mit minimalem früheren Training zu verbessern. Ihr Start spiegelt den wachsenden Fokus auf reale Interaktionsfunktionen im Bereich der sich entwickelnden AI-Modelle wider. href=”https://deepmind.google/discover/blog/gemini-robotics-brings-ai-into-the-physical-world/”>Gemini Robotics combines visual recognition, natural language comprehension, and action learning to enable robots to process complex environments, understand instructions, and execute tasks.
Die Modelle verwenden Null-Shot-und wenige Lernansätze, sodass Roboter Aufgaben ohne vorheriges Training umgehen oder sich schnell an minimale Beispiele anpassen können. Dieser Ansatz kann Branchen wie Herstellung und Logistik helfen, indem sie Schulungszyklen minimiert und schnellere Einsatz von Robotersystemen erleichtert. Roboter, die dieses Modell verwenden, können 3D-Umgebungen analysieren, Objekttrajektorien vorhersagen und verstehen, wie Objekte in einem Raum interagieren. liegt in seiner Anpassungsfähigkeit über verschiedene operative Kontexte hinweg. Roboter, die diese Modelle verwenden, können mit minimaler Neuprogrammierung zwischen Aufgaben wechseln oder sich auf neue Umgebungen einstellen.
Zum Beispiel könnte ein Roboter, der ursprünglich für die Produktbaugruppe konfiguriert ist, annähernd an die Zusammenstellung einer anderen Produktlinie anpassen, wodurch die Entwicklungskosten reduziert werden und schnellere Einsatzteile und humanoid-Plattformen und Humanoid-Plattformen ermöglichen. Diese plattformübergreifende Fähigkeit vereinfacht den Skalierungsprozess für Unternehmen, die fortschrittliche Robotik in ihre Operationen integrieren und sich direkt mit Herausforderungen in Automatisierungsworkflows befassen. Im Dezember 2024 stellte die Carnegie Mellon University den Genesis AI Simulator vor, der das Robotertraining beschleunigt, indem sie komplexe Simulationen bis zu 81-mal schneller erzeugen als reale Bedingungen. (Quelle: Genesis Github Page )
Genesis ermöglicht die dynamische Szenario-Generierung von einfachen Textaufforderungen, die eine effiziente Annäherung an die Raffination von Ai-motiviertem Verhalten anbieten. Reaktionsfähigkeit und Anpassungsfähigkeit der Roboter. Helix arbeitet ausschließlich auf eingebetteten GPUs und ermöglicht Robotern, Sprachbefehle zu verstehen, sich an unbekannte Objekte anzupassen und in Echtzeit zusammenzuarbeiten-ohne auf Cloud-Systeme zu stützen.
[eingebetteter Inhalt]
Microsoft kündigte im Februar sein Magma-AI-Modell an, wobei der Schwerpunkt auf der Brückensoftwareautomatisierung mit Robotik liegt. Magma integriert Seh-, Sprach-und Aktionsdaten, um Workflows in Industrie-und Unternehmensumgebungen zu automatisieren, die Anpassungsfähigkeit zu verbessern und die betriebliche Komplexität zu verringern. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=MtczndoxMjc2-1; Base64, Phn2ZyB2AWV3QM94psiwidagmtaynca2mjyi IHDPZHROPSIXMDI0IIBOZWLAHQ9IJYYNIG1SBNM9IMH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”> Verwendung Fallbeispiele für Magma AI (Quelle: Microsoft)
In der Zwischenzeit hat sich Meta auf die Bereitstellung grundlegender KI-Technologien konzentriert. Anfang Februar stellte das Unternehmen das Meta Motivo AI-Modell ein, das zur Verbesserung der Präzision und der lebensechten Bewegung in der Robotik entwickelt wurde. Der Ansatz von Meta unterstützt Dritthersteller Hersteller im Bau fortschrittlicher Robotersysteme. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtc0MtoxMjcy-1; Base64, Phn2zyb2AWV3QM94psiwidagmtaynca2nzkiihd pzhropssixmdi0iibozwlnahq9ijy3osigg1sbnm9imh0dha6ly93d3cudzMub3jnlziwmdavc3znij48l3n2zz4=”> Screenshot Aus der Meta motivo interaktive Demo