Docker Inc., das renommierte Unternehmen hinter der Open-Source-Docker-Container-Technologie, hat eine Reihe von Initiativen vorgestellt, die Entwickler bei der schnellen Erstellung generativer KI-Anwendungen unterstützen sollen. Die Ankündigung erfolgte auf der Dockercon 23-Konferenz in Los Angeles. Im Mittelpunkt dieser Initiativen steht die Einführung des Docker GenAI-Stacks, eines Produkts, das Docker nahtlos mit der Neo4j-Graphdatenbank, der LangChain-Modellverkettungstechnologie und Ollama zur Ausführung großer Sprachmodelle (LLMs) integriert.
Was der Docker GenAI Stack Entwicklern bietet
Der Docker Der GenAI-Stack ist darauf zugeschnitten, die Entwicklung von GenAI-Anwendungen zu vereinfachen. Diese Anwendungen erfordern typischerweise Kernkomponenten wie eine Vektordatenbank, die Neo4j jetzt als Teil seiner Graphdatenbankplattform anbietet. Darüber hinaus erfordert GenAI ein LLM, eine Funktion der Ollama-Plattform, die die lokale Ausführung von LLMs wie Llama 2 erleichtert. Moderne GenAI-Anwendungen umfassen oft mehrere Schritte, und hier ist das Framework von LangChain von unschätzbarem Wert.
Der GenAI-Stack ist darauf ausgelegt, die Komplexität der Konfiguration dieser verschiedenen Elemente in Containern zu verringern und den gesamten Prozess effizienter zu gestalten. Scott Johnston, CEO von Docker, betonte die Bereitschaft des Stacks und erklärte: „Er ist vorkonfiguriert, einsatzbereit und sie [Entwickler] können mit dem Codieren und Experimentieren beginnen, um den Stein ins Rollen zu bringen.“
Die vollständige Suite des GenAI-Stacks ist kostenlos erhältlich und kann lokal auf den Systemen der Entwickler betrieben werden. Docker beabsichtigt, Unternehmen Bereitstellungs-und kommerzielle Supportoptionen bereitzustellen, während ihre Anwendungen fortschreiten.
Docker KI: „Mech-Anzug“ für Entwickler
Docker unterscheidet sich von anderen zahlreichen auf dem Markt erhältlichen generativen KI-Entwicklertools und bringt sein spezielles GenAI-Tool namens Docker AI auf den Markt. Während andere Anbieter es verwenden Beim Begriff „Copilot“ bevorzugt Docker die Metapher eines „Mech-Anzugs“ und betont die verbesserte Leistung und Kompetenz, die Entwickler erreichen können.
Docker AI wird auf Dockers exklusiven Daten trainiert, die aus Millionen von Dockerfiles und Compose-Dateien gesammelt wurden und Fehlerprotokolle, die eine Ressource bereitstellen, mit der Fehler direkt in den Arbeitsabläufen der Entwickler behoben werden können. Das Tool zielt darauf ab, die Fehlersuche und-behebung einfacher zu gestalten und die Erfahrung der Entwickler zu verbessern.
Scott Johnston, CEO von Docker, erklärte, dass die Docker-KI mithilfe ihrer umfangreichen Docker-Daten eine einzigartige Rolle bei der Erleichterung der Containerentwicklung spielt Ausbildung, zu der kein anderer LLM Zugang hat. Docker hat sich in den letzten Jahren gezielt auf Entwickler konzentriert und ist bereit, die Zukunft der GenAI-Anwendungsentwicklung zu unterstützen.