Google hat kündigte eine Entwicklervorschau an. Das Tool ist jetzt verfügbar für Entwickler über Google AI Studio und vertex ai . Mit der Technologie können die KI sehen, was sich auf dem Bildschirm befindet, und dann auf Websites auf dem Bildschirm zu klicken, einzutippen und zu navigieren, um komplexe digitale Aufgaben zu automatisieren. Ziel ist es, Assistenten zu erstellen, die im Namen eines Benutzers aktiv die Arbeit abschließen können, und das Rennen um wirklich autonome AI-Agenten zu eskalieren. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty2MDO5MJC=-1; Base64, PHN2ZyB2AWV3QM94PSIWIDAGMTAWMCA0MD Qiihdpzhropsixmdawiibozwlnahq9ijqwncigg1SBnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>
Wie Gemini lernt, im Kern zu klicken, einzugeben und zu scrollen. Schleife .
Categories: IT Info