cloudflare nisi një sistem të ri të mbrojtjes bot, duke rrokullisur taktikat konvencionale të sigurisë në internet duke mashtruar në vend se të bllokonte scrapers të padëshiruar të AI. Faqet e krijuara nga AI që imitojnë përmbajtjen autentike, por nuk shërbejnë asnjë qëllim të vërtetë, duke humbur burime dhe duke zbuluar modele të sjelljes. src=”https://winbuzzer.com/wp-content/uploads/2024/12/cloudflare.jpg”>
Një herë të ndjekur, scrapers drejtohen në një kurth të mbushur me tekst të fabrikuar dhe elementë të projektimit që simulojnë faqet e internetit të vërteta. Nëse një kruese AI po konsumon faqe që nuk janë të vërteta, atëherë nuk po merr vlerën që shpresonte të merrte, kompania shpjegoi në njoftimin e saj zyrtar. Në vend që të shpresojnë që bots të përputhen, AI Labyrinth kapitalizon në mosrespektimin e tyre.
AI Labyrinth nuk është një tipar i pavarur-është evolucioni i fundit në strategjinë më të gjerë anti-bot të CloudFlare. Në vitin 2024 kompania prezantoi një zgjidhje me një klik për të bllokuar scrapers të njohura të AI, të shoqëruar me mjete të analizës së trafikut për të flamuruar sjelljen e dyshimtë. Mashtrimi
Zhvendosja drejt mashtrimit nuk është teorike. Ajo u nxit nga shkeljet e përsëritura të protokolleve themelore të hyrjes. Në qershor 2024, zhvilluesi Robb Knight ekspozoi se si mashtrimi AI i qasur seksione të bllokuara të faqeve të internetit të tij Radweb dhe MacStori
Pavarësisht se konfirmoi që metodat e tij të bllokimit po funksiononin siç pritej, regjistrat e serverëve të Knight treguan qasje të vazhdueshme të paautorizuar. Rreth të njëjtën kohë, Forbes akuzoi hutimin se përdorin një nga raportet e tij hetimore në një podcast të gjeneruar nga AI pa kredi. Artikulli origjinal u riprodhua në platformën e Perplexity në një mënyrë që të imitonte përmbledhjen e njeriut ndërsa lëshoi atributin. Amazon gjithashtu nisi një hetim të brendshëm për ankesa të ngjashme më vonë në qershor. Siç është vërejtur në azhurnimin e tyre në Shtator 2024. Këto shifra pasqyrojnë zhgënjimin e montimit nga botuesit në lidhje me trajnimin e modelit të AI që mbështetet shumë në publikisht të arritshme-por jo të licencuar lirisht-përmbajtjen. Ndërsa Bots Crawl Pages Decoy, CloudFlare kap nënshkrimet e sjelljes-Adresat e IP, modelet e kohës, shtigjet e lundrimit-që zbulojnë nëse kërkesa buron nga një përdorues i ligjshëm ose një agjent i automatizuar. Pronarët e faqes në internet mund të raportojnë zvarritësit e dyshimtë përmes pultit të CloudFlare. Shkelësit e konfirmuar i shtohen një liste të zezë të brendshme, duke e bërë më të vështirë për aktorët e përsëritur të kalojnë përmes të pazbuluarve. Këto mjete plotësojnë taktikat e bazuara në mashtrime me zbatimin adaptiv të vazhdueshëm. Në të njëjtën pjesë të shtatorit që prezantoi bllokimin e zgjeruar të bot, kompania lundroi konceptin e një tregu të licencimit të të dhënave.
Duke ngritur koston operacionale të skrapimit të paautorizuar, CloudFlare mund të shtyjë firmat e AI drejt negociimit të qasjes në vend që ta merrte atë si parazgjedhje. AI Labyrinth kështu vepron si një parandalues dhe një nxitje-të shtrirë zvarritësit mashtrues, dhe të bëjë të dhëna të licencuara qasje në rrugën më efikase përpara. Vetëm disa ditë para njoftimit të CloudFlare, Google përfundoi blerjen e tij prej 32 miliardë dollarësh të Wiz, një fillim i sigurisë së cloud. Marrëveshja nënvizon rëndësinë në rritje strategjike të ruajtjes së tubacioneve të të dhënave në një mjedis të mbizotëruar nga AI. Dhe duke vepruar kështu, ajo e shndërron një sfidë për mbrojtjen e përmbajtjes në një lak dinamik të feedback-ut-ai që mëson mbrojtjen e tij sa herë që një bot merr karremin.