Microsoft heeft een federale rechtszaak aangespannen tegen een onbekende groep cybercriminelen die ervan worden beschuldigd gestolen API-sleutels te gebruiken om veiligheidsprotocollen in de Azure OpenAI-service te omzeilen.

Volgens de klacht de groep, genaamd Does 1–10, ingediend bij de Amerikaanse districtsrechtbank voor het oostelijke district van Virginia, zou zich hebben ontwikkeld en gedistribueerde tools om de systemen van Microsoft te exploiteren en schadelijke inhoud te genereren die in strijd is met het beleid van Microsoft.

De juridische claims omvatten schendingen van de Computer Fraud and Abuse Act (CFAA), de Digital Millennium Copyright Act (DMCA), en de Act op door racketeer beïnvloede en corrupte organisaties.

De technologiegigant beweert dat de groep een geavanceerd hackplan hanteerde, het genereren van inkomsten met ongeautoriseerde toegang tot de Azure OpenAI Service door het distribueren van aangepaste software, waaronder een client-side applicatie die bekend staat als’de3u’en een reverse proxy-systeem met de naam’oai reverse proxy’.

Deze tools stelden gebruikers in staat gestolen inloggegevens te misbruiken en de geavanceerde beveiligingsmaatregelen van Microsoft te omzeilen.

Gerelateerd: Microsoft sluit de toegang tot Azure OpenAI af voor Chinese ontwikkelaars

>

Het onderzoek van Microsoft begon in juli 2024 toen het ontdekte dat API-sleutels (unieke ID’s die gebruikersverzoeken verifiëren) die waren uitgegeven aan legitieme Azure OpenAI-klanten werden gebruikt om zonder toestemming toegang te krijgen tot zijn systemen.

Het bedrijf herleidde de activiteit tot een gecoördineerde operatie gericht op meerdere klanten, waaronder verschillende in de VS gevestigde bedrijven.

“De precieze manier waarop gedaagden alle API-sleutels verkregen die gebruikt werden om Het wangedrag dat in deze klacht wordt beschreven is onbekend”, aldus Microsoft in de indiening,”maar het lijkt erop dat gedaagden zich schuldig hebben gemaakt aan een patroon van systematische diefstal van API-sleutels waardoor ze Microsoft API-sleutels van meerdere Microsoft-klanten konden stelen.”>

Gerelateerd: AI-gestuurde cyberaanvallen stijgen naar meer dan 600 miljoen dagelijkse incidenten

Tools die in het plan worden gebruikt

De gedaagden zouden de de3u-software hebben gemaakt om het ongeoorloofde gebruik van de Azure OpenAI Service te vergemakkelijken. Deze tool bood een gebruiksvriendelijke interface voor het genereren van afbeeldingen via het DALL-E-model van OpenAI.

Het communiceerde met de systemen van Azure door legitieme API-verzoeken na te bootsen en gestolen inloggegevens te misbruiken om ingebouwde beveiligingen te omzeilen. Het reverse proxy-systeem maakte dit misbruik verder mogelijk door ongeautoriseerd verkeer via Cloudflare-tunnels om te leiden, waardoor de activiteiten werden verdoezeld en moeilijker te detecteren waren.

De klacht van Microsoft beschrijft de tools in detail: “De de3u-applicatie van gedaagden communiceert met Azure computers die ongedocumenteerde Microsoft-netwerk-API’s gebruiken om aanvragen te verzenden die zijn ontworpen om legitieme Azure OpenAI Service API-aanvragen na te bootsen. Het oai reverse proxy-systeem stelde gebruikers in staat om communicatie via Cloudflare-tunnels naar Azure-systemen te leiden en uitvoer te ontvangen die de veiligheidsbeperkingen omzeilde.”

De tools bevatten ook functies om metagegevens uit door AI gegenereerde inhoud te verwijderen, waardoor de identificatie van de oorsprong ervan en het verder mogelijk maken van misbruik.

Na de ontdekking van Microsoft hebben de beklaagden naar verluidt geprobeerd de belangrijkste infrastructuur te verwijderen, waaronder Rentry.org-pagina’s, de GitHub-repository voor de3u en elementen van de omgekeerde proxy. systeem.

Bredere context en sectorbrede implicaties

De rechtszaak komt in een tijd waarin generatieve AI-technologieën steeds meer onder de loep worden genomen vanwege hun potentiële misbruik zoals OpenAI’s DALL-E en ChatGPT hebben de creatie van inhoud getransformeerd, maar zijn ook uitgebuit voor desinformatie, de ontwikkeling van malware en schadelijke beelden.

De juridische stappen van Microsoft onderstrepen de voortdurende uitdagingen waarmee AI wordt geconfronteerd providers bij het beveiligen van hun systemen.

Microsoft heeft benadrukt dat de beveiligingsmaatregelen die zijn geïntegreerd in Azure OpenAI Service robuust zijn, waarbij gebruik wordt gemaakt van neurale classificatiemodellen met meerdere klassen en bescherming van metagegevens. Deze systemen zijn ontworpen om schadelijke inhoud te blokkeren en door AI gegenereerde output naar hun bronnen te traceren.

Maar zoals deze zaak aantoont, kunnen zelfs de meest geavanceerde veiligheidsmaatregelen door vastberaden actoren worden omzeild. “Ondanks de verschillende veiligheidsmaatregelen van Microsoft en OpenAI hebben geavanceerde kwaadwillenden manieren bedacht om onwettige toegang tot de systemen van Microsoft te verkrijgen”, aldus de klacht.

De groep waarop Microsoft zich richt, staat mogelijk niet geïsoleerd in zijn activiteiten. beweert dat dezelfde actoren waarschijnlijk andere AI-dienstverleners hebben uitgebuit, wat een bredere trend van misbruik in de AI-ruimte weerspiegelt. Dit benadrukt de systemische kwetsbaarheden van generatieve AI-technologieën en de noodzaak van sectorbrede samenwerking om deze aan te pakken bedreigingen.

Juridische stappen en tegenmaatregelen

Om de uitbuiting te bestrijden heeft Microsoft alle gestolen inloggegevens ongeldig gemaakt en aanvullende beveiligingsmaatregelen geïmplementeerd om soortgelijke inbreuken te voorkomen kreeg ook een gerechtelijk bevel om beslag te leggen op domeinen die verband hielden met de beklaagden, waaronder ‘aitism.net’, dat centraal stond in hun activiteiten.

Deze maatregelen stellen de Digital Crimes Unit van Microsoft in staat om communicatie van deze domeinen om te leiden naar gecontroleerde omgevingen voor verder onderzoek.

De klacht schetst ook de intentie van Microsoft om schadevergoeding en voorlopige maatregelen te eisen om de beklaagden te ontmantelen’infrastructuur. Door juridische stappen te ondernemen wil het bedrijf een precedent scheppen voor de aanpak van misbruik van AI-technologieën en het ter verantwoording roepen van kwaadwillende actoren.

Implicaties voor de toekomst van AI-beveiliging

De zaak illustreert de toenemende verfijning van cybercriminelen die AI-systemen exploiteren. Naarmate generatieve AI meer geïntegreerd raakt in bedrijfs-en consumententoepassingen, nemen de risico’s van misbruik toe. Dit incident benadrukt het belang van voortdurende investeringen in beveiligingstechnologieën en de noodzaak van juridische kaders om opkomende bedreigingen aan te pakken.

Door deze rechtszaak voort te zetten, pakt Microsoft niet alleen onmiddellijke kwetsbaarheden aan, maar versterkt het ook zijn inzet voor verantwoorde AI-ontwikkeling.

Categories: IT Info