Google DeepMind hat damit begonnen, die öffentliche Freisetzung einiger KI-Forschungsarbeiten aktiv einzuschränken, die die wachsende Priorisierung des strategischen Vorteils gegenüber wissenschaftlicher Offenheit widerspiegeln. Openness

DeepMind’s new internal policy enforces a six-month embargo on select papers related to generative AI, meldet die Financial Times . Diese Papiere müssen nun mehrere Schichten interner Überprüfungen durchlaufen-manchmal durch Führungskräfte-, bevor sie öffentlich geteilt werden können. Von der Financial Times angeführte Quellen deuten darauf hin, dass die Veröffentlichung in einigen Fällen vollständig blockiert wird. Ein DeepMind-Forscher bemerkte: „Wir werden nun mitgeteilt, dass die Veröffentlichung nicht mehr der Standard ist. Gemini, DeepMinds Flaggschiff-Familie von Großsprachenmodellen, spielt eine Schlüsselrolle in den Produkten von Google-von Workspace-Tools bis Android-und der Schutz der zugrunde liegenden Forschung wird zu einer klaren Priorität. Verstehen. Das Modell erweiterte die Fähigkeiten seines Vorgängers signifikant, indem sie nicht nur Proteine, sondern auch Wechselwirkungen mit DNA, RNA, Liganden und Ionen modellierte-KeY für die Erkennung von Arzneimitteln. Dies löste ein Protestbrief signiert durch über 1.000 Forscher aus. Alphafold 3 Quellcode im November 2024 unter einer nichtkommerziellen Lizenz. Forscher müssen sich jedoch weiterhin für den Zugriff auf die Modellgewichte bewerben. Der Chefredakteur der Natur verteidigte die anfängliche Verzögerung und zitierte die Biosicherheit und ethische Überlegungen im Zusammenhang mit molekularen Simulationen. Beispiel: Txgemma, eine Reihe biomedizinischer Forschungsmodelle, die im März 2025 veröffentlicht wurden. In der Dokumentation heißt es, dass es”ein Forschungs-Toolkit, kein schlüsselfertiges System”ist und die Modularität über Vollständigkeit betont. Die Erfolge erfolgten im Februar 2025 mit Alphageometry2, einem Hybridmodell, das die durchschnittliche Leistung von Goldmedaillengewinner in der internationalen mathematischen Olympiade (IMO) übertraf. Ddar. Vorgänger dank eines Umschreibens in C ++. Ein wesentlicher Durchbruch war die Einbeziehung des gemeinsamen Wissenssemble von Suchbäumen (SKEST), das es ermöglicht, entdeckte die Parallelstrahlsuche zu teilen. Wie der DeepMind-Ingenieur Thang Luong erklärte: „In AG2 entwerfen wir einen neuartigen Suchalgorithmus mit dem Namen Shared Knowledge Ensemble von Suchbäumen (SKEST), damit mehrere Strahlsuche parallel laufen können. Das Unternehmen hat vorgeschlagen, dass sich der symbolische Ansatz von Alphageometry2 in Feldern wie Ingenieurwesen und Physik als nützlich erweisen könnte, aber sein strategischer Wert scheint die Vorteile der offenen Freisetzung zu überwiegen. Entscheidung, seine wertvollsten Modelle unter Verschluss zu halten. Im Gegensatz zu herkömmlichen Modellen können sich diese Roboter schnell an neue Aufgaben anpassen, ohne von Grund auf neu programmiert zu werden. Trajektorien und intelligent mit ihrer Umgebung interagieren. Die potenziellen Anwendungen für diese Technologie umfassen Branchen wie Fertigung, Logistik und sogar medizinische Robotik. Trotz ihres Potenzials, Branchen zu revolutionieren, die auf Automatisierung angewiesen sind, hat DeepMind beschlossen, sie proprietär zu halten und die Absicht des Unternehmens zu unterstreichen, seine Führung in den Robotik-und KI-Räumen zu schützen. Türen

Ein weiterer Hinweis auf DeepMinds strategische Drehzahl erfolgte im Januar 2025 mit der Bildung eines spezialisierten Teams, das sich auf Weltmodelle konzentrierte-ein Schlüsselkomponente des langfristigen Ziels des Unternehmens, künstliche allgemeine Intelligenz zu erreichen (AGI). Einschließlich der für vollständigen Agi. In Brooks’Worten: „Wir haben ehrgeizige Pläne, massive generative Modelle zu erstellen, die die Welt simulieren.”öffentlich in naher Zukunft verfügbar. Die Bemühungen des Teams, die die Grenzen dessen in AGI überschreiten sollen, sind weiterhin bewacht. Dies ist ein weiteres Beispiel für DeepMinds zunehmend schützende Haltung zu seinen geistigen Eigentum und technologischen Fortschritten. Wie von der Financial Times.

Einige Forscher haben die Bedenken hinsichtlich der Bedenken des Labors gelassen, dass die einst gesammelten Werte der wissenschaftlichen Offenheit und der akademischen Leistungen durch die wachsende Kommerzialisierung von AI durch das Unternehmen überschattet werden. Änderung des Google-Ansatzes zur KI, bei der die Forschung nun enger mit Produktentwicklung und kommerziellen Interessen verbunden ist als je zuvor. einige seiner früheren Verpflichtungen entfernt, um die Entwicklung von KI-Technologien zu vermeiden, die missbraucht werden könnten, auch in Überwachung oder Waffen. Stattdessen betonen die aktualisierten Richtlinien auf das menschliche Design, das Potenzial der KI, die globalen Herausforderungen zu bewältigen, und die Verantwortung für die sichere und ethische Bereitstellung von KI. Der neue Ansatz des Unternehmens ermöglicht eine größere Flexibilität bei der Entwicklung potenziell kontroverser Technologien-etwas, das die zunehmende Geheimnisse um seine KI-Projekte weiter befeuern könnte. des Wettbewerbs zwischen Tech-Giganten, DeepMinds Balanceakt zwischen Transparenz und Protektionismus bleibt eine der wichtigsten Geschichten, die sie sehen sollten.