La sécurité adaptative a réussi à lever 43 millions de dollars en financement pour accélérer son travail pour lutter contre les cyber-menaces axées sur l’IA, avec un accent spécifique sur la défense contre Deepfakes et les attaques d’ingénierie sociale.

The Round, , reflète l’urgence croissante pour les entreprises d’investir dans des mesures de cybersécurité proactives à mesure que la technologie de l’IA devient plus sophistiquée et accessible aux cybercriminaux. Cet investissement arrive à un moment critique, car les outils génératifs de l’IA sont de plus en plus armées dans les escroqueries en ligne, le vol d’identité et les schémas frauduleux.

L’essor des cybercriminaux améliorés par l’AI comme les profondeurs

L’émergence de technologies de l’IA comme les fesses profondes a démoliralement le paysage cybercriminal. Deepfakes-très convaincants, les images, l’audio et les vidéos générées par l’AI-sont utilisées pour se faire passer pour les individus, manipuler l’opinion publique et tromper les victimes de transactions frauduleuses.

L’un des aspects les plus préoccupants de la technologie DeepFake est sa capacité à permettre des attaques d’ingénierie sociale. Dans ces attaques, les cybercriminels se font passer pour des chiffres de confiance, utilisant des médias convaincants générés par l’AI pour manipuler les victimes. La plate-forme d’Adaptive Security est conçue pour faire face à cette menace croissante en aidant les organisations à détecter et à neutraliser ces attaques avant de causer des dommages financiers ou de réputation.

L’implication de l’Openai dans ce cycle de financement est une étape notable dans la lutte contre les risques posés par une mauvaise utilisation de l’IA. En soutenant la sécurité adaptative, OpenAI s’aligne sur les efforts pour se protéger contre la cybercriminalité dirigée par l’IA, un domaine qui reste une préoccupation croissante pour les entreprises technologiques dans le monde entier.

Réponses de l’industrie: Meta et Microsoft cybersécurité. Le sceau vidéo de META, un cadre de filigrane open source, intégré des identifiants invisibles et invisibles résistants aux vidéos générées par AI-authentification pour authentifier leur origine.

Cette décision fait partie d’un effort continu à l’échelle de l’industrie pour garantir que les consommateurs peuvent distinguer entre les médias réels et gérés par AI. La solution de Meta complète des efforts comme les initiatives de Microsoft, qui ont également inclus une action en justice contre les cybercriminels exploitant l’IA pour générer un contenu nocif, tels que des vidéos DeepFake.

Dans un cas notable, Microsoft a récemment déposé un procès contre un groupe de piratage qui a utilisé des informations d’identification ouvertes malveillantes Stolen Azure pour générer des fasks malveillants. Ces fausses vidéos ont été conçues pour manipuler des cibles dans la divulgation d’informations sensibles. Ce procès souligne la fréquence croissante des menaces de cybersécurité liées à l’IA et la nécessité pour les entreprises d’adopter des défenses robustes contre de telles attaques.

Solutions de défense AI proactives

L’intégration de l’IA dans les plates-formes de cybersécurité est essentielle pour maintenir la sophistication des menaces modernes. La plate-forme de copilote de sécurité de Microsoft, par exemple, s’est récemment développée pour inclure des agents d’IA qui automatisent la détection du phishing, de la gestion de la vulnérabilité et de la protection de l’identité. Ces agents de l’IA font partie d’une tendance plus large où les entreprises tirent parti de l’IA non seulement pour répondre aux cyberattaques mais aussi pour anticiper et atténuer les risques potentiels.

De même, la sécurité adaptative utilise l’IA pour simuler des scénarios d’attaque réalistes, offrant aux entreprises un terrain de test pour renforcer leurs défenses. La plate-forme de l’entreprise vise à enseigner aux employés comment reconnaître les menaces alimentées par l’IA avant de subir des pertes importantes. Cette approche proactive est cruciale car les technologies d’IA comme Deepfakes continuent d’évoluer et deviennent plus difficiles à détecter.

Selon Microsoft, l’intégration de l’IA dans ses outils de sécurité a déjà montré des résultats prometteurs dans la découverte de vulnérabilités dans les systèmes fondamentaux. Ces découvertes-telles que les défauts trouvés dans les chargeurs de démarrage qui pourraient potentiellement être exploités-en lumière la nécessité d’outils dirigés sur l’IA pour identifier les risques que les méthodes traditionnelles de cybersécurité peuvent négliger.

Dans une autre initiative axée sur l’IA, les données NTT et Palo Alto Networks ont introduit le MXDR, un service de cybersécurité AI-Ai-Ai-Ai-Ai-Aid. La plate-forme utilise une détection basée sur l’IA pour identifier rapidement les modèles qui pourraient indiquer des violations potentielles, permettant aux entreprises de réagir rapidement.

Cybersécurité dirigée par AI: un défi mondial

À mesure que les outils AI comme les fesses profondes et le clonage vocal continuent de progresser, les risques associés à leur consommation de mal de plus sont de plus en plus pervasives. Une augmentation mondiale de la cybercriminalité axée sur l’IA, de l’Asie du Sud-Est à l’Europe, a fait des alarmes sur la portée et la sophistication de ces menaces. Rien qu’en Asie du Sud-Est, les cybercriminels ont exploité les technologies de l’IA pour perpétrer la fraude qui s’élevait à 37 milliards de dollars en 2023.

Les gouvernements et les entreprises technologiques commencent à reconnaître l’urgence de lutter contre ces risques. En 2024, Europol a averti que le contenu généré par l’IA complique les efforts pour lutter contre le crime organisé, notant l’utilisation croissante de l’IA pour l’exploitation des enfants et la fraude financière. Cela met en évidence la nécessité d’une action unifiée dans l’industrie de la technologie pour s’assurer que les technologies d’IA sont utilisées de manière responsable, tout en défendant contre ceux qui cherchent à les exploiter à des fins malveillantes.

La voie à suivre: la mise à l’échelle des défenses de l’IA

Le 43 millions de dollars dans les fonds sécurisés par l’adaptation à l’adaptation à l’échelle de l’entreprise Attaques générées par l’AI. Avec le soutien d’Openai, la sécurité adaptative est positionnée pour mener la charge dans la lutte contre ces menaces émergentes. La plate-forme de l’entreprise, qui simule Deepfake attaque et forme les employés à reconnaître les menaces axées sur l’IA, est un élément clé de l’avenir de la cybersécurité.

Cependant, alors que les technologies d’IA continuent de progresser, il en va de même pour la sophistication des cybercriminels qui cherchent à les exploiter. Pour garder une longueur d’avance sur ces risques, les entreprises devront investir dans des outils de cybersécurité de pointe qui peuvent s’adapter aux menaces nouvelles et émergentes. The collaboration between OpenAI and Adaptive Security is a step in the right direction, but it will be essential for the industry to continue innovating and working together to address the rapidly evolving threat landscape.

Final Thoughts on the Evolving Threat Landscape

The growing reliance on AI tools, both for malicious purposes and in defense, makes it increasingly difficult for businesses to navigate the complexities of cybersécurité. Alors que des entreprises comme la sécurité adaptative augmentent leurs efforts pour contrer ces menaces, il devient évident qu’une stratégie de défense multicouche et axée sur l’IA sera essentielle pour se protéger contre la nouvelle génération de cybercriminalité.

Malgré les avancées prometteuses faites par des sociétés comme la sécurité adaptative, la route à l’avance est lancée de défis. Alors que la technologie de l’IA continue d’évoluer rapidement, les entreprises devront rester agiles, adoptant de nouvelles mesures de sécurité et affiner continuellement leurs défenses pour suivre le rythme des menaces. La collaboration entre les sociétés d’IA et les startups de cybersécurité est cruciale pour développer des mécanismes de défense plus sophistiqués et proactifs, garantissant que les entreprises peuvent non seulement répondre, mais aussi anticiper les tactiques de plus en plus sophistiquées employées par les cybercriminels.

Pour le moment, les 43 millions de dollars d’investissement dans la sécurité adaptative ne sont pas prises pour la sécurité du système de sécurité cybercrémique. Cependant, avec le potentiel de l’IA pour le bien et les dommages, il est clair que la bataille pour la sécurité numérique ne fait que commencer. Alors que nous regardons vers l’avenir, la clé sera de veiller à ce que la même technologie stimulant l’innovation puisse également être exploitée efficacement pour se protéger contre la vague croissante de cybercriminalité basée sur l’IA.