DeepMind, die KI-Forschungsabteilung von Google, hat ein neues Projekt mit dem Namen AI Safety and Alignment angekündigt, das bestehende Teams mit dem Ziel zusammenführt Eskalieren Sie die Sicherheitsmaßnahmen im Bereich der künstlichen Intelligenz (KI). DeepMind stellt das neue Team ein zu einem Zeitpunkt, an dem Google versucht, die aufkommenden Risiken im Zusammenhang mit allgemeiner KI (GenAI) zu mindern )-Modelle, darunter sein Flaggschiffmodell Gemini, das dafür bekannt ist, bei bestimmten Eingabeaufforderungen irreführende Inhalte zu generieren. Die Organisation wird ihren Fokus erheblich erweitern, um neue Sicherheitsbereiche rund um künstliche allgemeine Intelligenz (AGI) abzudecken, mit dem Ziel, das breite Spektrum von KI-Anwendungen abzudecken, die das Potenzial haben, Aufgaben auf menschlicher Ebene auszuführen.

Strategischer Ansatz für AGI und Sicherheitsmaßnahmen

Die neue Organisation ist nicht nur eine Reaktion auf die zunehmende Kontrolle durch politische Entscheidungsträger, die sich mit dem Missbrauch von GenAI-Tools befassen, sondern auch ein proaktiver Schritt zur Bewältigung der technischen Herausforderungen von Steuerung superintelligenter KI-Systeme. AI Safety and Alignment erweitert seinen Zuständigkeitsbereich um ein neuartiges Team, das sich der AGI-Sicherheit widmet. Dieses Team arbeitet innerhalb des größeren Rahmens zusammen mit dem in London ansässigen Scalable Alignment-Team von DeepMind mit dem Ziel, Lösungen für die unbekannten Gebiete der superintelligenten KI-Sicherheit zu entwickeln. In einer parallelen Mission, um mit der Superalignment-Abteilung von OpenAI zu konkurrieren, unterstreicht diese Initiative das Engagement von Google, trotz des Wettbewerbsdrucks einen verantwortungsvollen Kurs in der KI-Entwicklung aufrechtzuerhalten.

Anca Dragan leitet das Team und verfügt über umfangreiche Kenntnisse im Bereich KI-Sicherheitssysteme aus ihrer Zeit bei Waymo und als Informatikprofessorin an der UC Berkeley. Sie bringt ein klares Verständnis für die Nuancen mit, die bei der Ausrichtung von KI-Systemen an menschlichen Werten und Vorlieben erforderlich sind, und betont die Bedeutung von Modellen, die menschliche Absichten zuverlässig interpretieren und vor gegnerischen Manipulationen schützen können. Dragans Doppelrolle, die ihr Labor an der UC Berkeley und DeepMind umfasst, nutzt ihre umfangreiche Forschungserfahrung in Mensch-KI-und Mensch-Roboter-Interaktionen, um Sicherheitsmechanismen im Vorfeld der Weiterentwicklung der KI-Fähigkeiten voranzutreiben.

Herausforderungen meistern und zukünftige Richtungen festlegen

Die Gründung von Die Organisation von AI Safety and Alignment spiegelt die Anerkennung von Google DeepMind für die komplexen Herausforderungen wider, die GenAI-Tools mit sich bringen, insbesondere im Bereich von Fehlinformationen und Deepfakes. Umfragen zeigen erhebliche öffentliche Besorgnis über den Missbrauch von KI bei der Verbreitung falscher Informationen, insbesondere im Zusammenhang mit den US-Präsidentschaftswahlen. Die Organisation legt großen Wert auf die Entwicklung robuster Sicherheitsmechanismen, die von der Verhinderung irreführender medizinischer Ratschläge bis hin zur Bekämpfung von Voreingenommenheit und der Verstärkung von Ungerechtigkeit reichen.

DeepMinds Engagement besteht nicht darin, ein unfehlbares Modell zu versprechen, sondern in Rahmenwerke zu investieren, um GenAI-Sicherheitsrisiken angemessen zu bewerten. Dragan skizziert eine Vision, in der Modelle in der Lage sind, datengesteuerte Verzerrungen zu berücksichtigen, Echtzeitüberwachung zur Erkennung von Fehlern zu nutzen und Bestätigungsdialoge für wichtige Entscheidungen einzusetzen. Das ultimative Ziel ist eine kontinuierliche Verbesserung der KI-Modelle von Google, die zu sichereren und zuverlässigeren Nutzererlebnissen führt.

Da die KI-Technologie schnell voranschreitet, betont der strategische Schwerpunkt von Google DeepMind die Bedeutung von Sicherheit und ethischen Überlegungen bei der KI Entwicklungslandschaft mit dem Ziel, einen ausgewogenen Fortschritt sicherzustellen, der die Vorteile der KI nutzt und gleichzeitig die damit verbundenen Risiken wirksam mindert.

Categories: IT Info