Siguria adaptive ka mbledhur me sukses 43 milion dollarë në fonde për të përshpejtuar punën e saj duke luftuar kërcënimet në internet të drejtuara nga AI, me një fokus specifik në mbrojtjen kundër sulmeve të deepfakes dhe inxhinierisë sociale. Andreessen Horowitz (A16Z) , pasqyron urgjencën në rritje për bizneset për të investuar në masat proaktive të sigurisë në internet pasi teknologjia e AI bëhet më e sofistikuar dhe e arritshme për kriminelët në internet. Ky investim vjen në një kohë kritike, pasi mjetet gjeneruese të AI janë gjithnjë e më shumë armatosur në mashtrimet në internet, vjedhjet e identitetit dhe skemat mashtruese. Deepfakes-shumë bindës i imazheve të krijuara nga AI, audio dhe video-janë përdorur për të imponuar individë, për të manipuluar opinionin publik dhe mashtrojnë viktimat në transaksione mashtruese. Prania globale e deepfakes në krimin kibernetike u rrit ndjeshëm në vitin 2023, duke kontribuar në 7% të rasteve globale të mashtrimit, me një rritje dhjetëfish të incidenteve të zbuluara nga një vit më parë. Këto shifra alarmante nxjerrin në pah ndjeshmërinë e individëve dhe bizneseve ndaj mashtrimit të fuqizuar nga AI. Në këto sulme, kriminelët kibernetikë imponojnë shifrat e besuara, duke përdorur media bindëse të krijuara nga AI për të manipuluar viktimat. Platforma Adaptive Security është krijuar për të adresuar këtë kërcënim në rritje duke ndihmuar organizatat të zbulojnë dhe neutralizojnë këto sulme përpara se të shkaktojnë dëme financiare ose reputacionale. Duke mbështetur sigurinë adaptive, Openai po e përafrohet me përpjekjet për të mbrojtur krimin kibernetik të drejtuar nga AI, një zonë që mbetet një shqetësim në rritje për kompanitë e teknologjisë në të gjithë botën. Siguria në internet. Vula Video e Meta, një kornizë e ujit të hapur me burim të hapur, ngulit identifikues të padukshëm, rezistent ndaj ngatërresave në videot e krijuara nga AI për të vërtetuar origjinën e tyre. Zgjidhja e Meta plotëson përpjekjet si nismat e Microsoft, të cilat gjithashtu kanë përfshirë veprime juridike kundër kriminelëve në internet që shfrytëzojnë AI për të gjeneruar përmbajtje të dëmshme, siç janë videot e Deepfake. Këto video të rreme u krijuan për të manipuluar objektivat në zbulimin e informacionit të ndjeshëm. Kjo padi nënvizon frekuencën në rritje të kërcënimeve të sigurisë në internet të lidhura me AI dhe domosdoshmërinë që bizneset të miratojnë mbrojtje të fuqishme kundër sulmeve të tilla. Për shembull, platforma e sigurisë së Microsoft-it, për shembull, është zgjeruar kohët e fundit për të përfshirë agjentët e AI që automatizojnë zbulimin e phishing, menaxhimin e cenueshmërisë dhe mbrojtjen e identitetit. Këta agjentë të AI janë pjesë e një trendi më të gjerë ku kompanitë po përdorin AI jo vetëm për t’iu përgjigjur sulmeve në internet, por edhe për të parashikuar dhe zbutur rreziqet e mundshme. Platforma e kompanisë synon t’u mësojë punonjësve se si të njohin kërcënimet me energji AI para se të rezultojnë në humbje të konsiderueshme. Kjo qasje proaktive është thelbësore pasi teknologjitë e AI si DeepFakes vazhdojnë të evoluojnë dhe bëhen më të vështira për t’u zbuluar. Këto zbulime-siç janë të meta që gjenden në bootloaders që potencialisht mund të shfrytëzohen-ndriçojnë nevojën për mjete të drejtuara nga AI për të identifikuar rreziqet që metodat tradicionale të sigurisë në internet mund të anashkalojnë. Platforma përdor zbulimin e bazuar në AI për të identifikuar shpejt modelet që mund të tregojnë shkelje të mundshme, duke lejuar kompanitë të reagojnë menjëherë. Një rritje globale në krimin kibernetik të drejtuar nga AI, nga Azia Juglindore në Evropë, ka ngritur alarme për arritjen dhe sofistikimin e këtyre kërcënimeve. Vetëm në Azinë Juglindore, kriminelët kibernetikë shfrytëzuan teknologjitë e AI për të kryer mashtrim që arriti në 37 miliardë dollarë në 2023.
Qeveritë dhe kompanitë e teknologjisë kanë filluar të njohin urgjencën e adresimit të këtyre rreziqeve. Në vitin 2024, Europol paralajmëroi se përmbajtja e krijuar nga AI po ndërlikon përpjekjet për të luftuar krimin e organizuar, duke përmendur përdorimin në rritje të AI për shfrytëzimin e fëmijëve dhe mashtrimet financiare. Kjo nënvizon nevojën për veprim të unifikuar në të gjithë industrinë e teknologjisë për të siguruar që teknologjitë e AI të përdoren me përgjegjësi, ndërsa gjithashtu mbrojnë kundër atyre që kërkojnë t’i shfrytëzojnë ato për qëllime me qëllim të keq. Sulmet e krijuara nga AI. Me mbështetjen e Openai, siguria adaptive pozicionohet për të udhëhequr akuzën në luftimin e këtyre kërcënimeve në zhvillim. Platforma e kompanisë, e cila simulon sulmet e Deepfake dhe trajnon punonjësit për të njohur kërcënimet e drejtuara nga AI, është një pjesë kryesore e së ardhmes së sigurisë në internet. Për të qëndruar përpara këtyre rreziqeve, bizneset do të duhet të investojnë në mjete të para të sigurisë në internet që mund të përshtaten me kërcënime të reja dhe në zhvillim. Bashkëpunimi midis Openai dhe Sigurisë Adaptive është një hap në drejtimin e duhur, por do të jetë thelbësore që industria të vazhdojë të inovojë dhe të punojë së bashku për të adresuar peizazhin e kërcënimit me shpejtësi në zhvillim.