Faceging Face, die weit verbreitete Plattform für das Teilen von maschinellem Lernmodellen (ML), setzt sich mit Sicherheitsbedenken auseinander, nachdem die Forscher Malware identifiziert haben, die innerhalb von zwei gehosteten Modellen versteckt ist.

Diese böswilligen Dateien nutzten Schwachstellen in pythons pickle serialization-Format , sodass Angreifer während des Modelllastprozesses schädlicher Code ausführen können. Die Ergebnisse, veröffentlicht von

Wie Angreifer die Sicherheitsinstrumente von Sugging Face umgehen

picklescan identifiziert potenziell böswillige Dateien, indem bestimmte Blacklist-Methoden wie Eval oder EXEC gekennzeichnet sind. Forscher von checkMarx hat gezeigt, dass diese Abwehrkräfte auf verschiedene Weise umgangen werden können. Zum Beispiel verwendeten Angreifer Pythons Debugging-Modul bdb.bdb.run ,, die ähnlich wie angegebene Befehle funktioniert, aber die Erkennung vermieden. Durch die Verwendung von Protokollversion 4 optimierten die Angreifer die Methode auf eine Weise, die die Blacklist-Regeln von Picklescan entging.

Darüber hinaus wiesen die Forscher darauf hin, dass sich Tools wie Picklescan auf die Validierung von Dateien konzentrieren, bevor sie nach böswilligen Inhalten scannen. Dieser Prozess vermisst früh ausgeführte Nutzlasten, die in beschädigte Gurkendateien eingebettet sind, ein Entwurfsfehler, der von ReversingLabs-Experimente . Bericht.

checkMarx’Forscher kritisierten die Verwendung von Blacklists weiter und stellten fest, dass Angreifer, selbst wenn alle bekannten Python-Methoden markiert wurden, einfach den Bibliotheken von Drittanbietern wenden konnten. asyncio, ein integriertes Python-Modul für asynchrones Programmieren , könnte zum Bypass-Picklescan geschaltet werden.”Ein Blocklistenansatz für vollständig dynamischen Code in Form von böswilligen Fackel-/Gurkenmodellen ermöglicht es den Angreifern, diese Lösungen im Staub zu lassen”-HUGS-What-an-BE-Wärme-von-in-Hugging-Face-Parts-4/”target=”_ leer”> Blog-Beitrag .

Lösungen und Industrie Implikationen

Um diese Schwachstellen zu beheben, empfehlen die Experten, von der Pickle-Serialisierung zu sichereren Formaten wie >> zu übergehen. SafeTensoren . Im Gegensatz zu Gurke speichert SafeTensoren nur numerische Daten und führen während der Deserialisierung nicht ein, und verringern das Risiko von Malware, während SafeTensoren zunehmend als sicher angesehen werden. Alternative zum Teilen von Modellen für maschinelles Lernen. Das Umarmungsgesicht liefert eine”unsichere”Taste, die potenziell schädliche Dateien markiert, aber die Forscher warnen davor, dass solche Tools allein keine Sicherheit garantieren können. , welche Kenntnisse bekannt sind, ermöglichen es, vertrauenswürdige Methoden und Objekte ausdrücklich zu definieren und eine robustere Verteidigung anzubieten./p>

Die breiteren Auswirkungen dieser Erkenntnisse erstrecken sich über das Gesicht von Gesicht. und Sicherheit, die in Technologien investieren, die sich an sich entwickelnde Bedrohungen anpassen können. Die grundlegenden Schwachstellen der Pickle-Serialisierung in Kombination mit dem kollaborativen Charakter offener KI-Plattformen bedeuten, dass Angreifer weiterhin neue Methoden der Ausbeutung finden.

Categories: IT Info