Seorang analis pencarian Google telah membunyikan alarm: proliferasi yang cepat dari agen AI dan taktik perajin web mereka yang sering agresif berada pada lintasan untuk menciptakan kemacetan internet yang signifikan dan berpotensi membanjiri server situs web yang dibangun oleh beberapa hal. Masalah yang muncul ini, ia memperingatkan, dapat menurunkan kinerja web untuk pengguna dan meregangkan infrastruktur digital yang menopang dunia online.

Inti masalah, illey dijelaskan selama Google

Perusahaan metrik AD menggandakan lebih lanjut dengan kenaikan 86 persen pada umumnya-lalu lintas yang tidak valid (GIVT)-lalu lintas yang seharusnya tidak dihitung pada penghitungan yang dihitung pada umumnya. Crawlers, dengan sebagian besar berasal dari pencakar AI.

Memperparah masalah, banyak crawler AI cenderung mengabaikan robot.txt protocol, standar web lama yang dimaksudkan untuk memandu perilaku bot. Ketidakpatuhan ini berarti pemilik situs web memiliki kendali terbatas di mana bot mengakses konten mereka dan seberapa sering.

Peningkatan aktivitas dari mesin non-pencarian AI bot dapat mengkonsumsi sumber daya server, berpotensi memengaruhi kemampuan mesin pencari yang sah/mengacaukan Menanggapi tantangan ini, perusahaan seperti CloudFlare telah mengembangkan penanggulangan yang semakin canggih. Pada bulan Maret, Cloudflare memperkenalkan AI Labyrinth, sebuah sistem yang dirancang untuk secara aktif menyesatkan dan menghabiskan crawler AI yang tidak sah dengan memikat mereka ke labirin konten yang dihasilkan secara otomatis. Alasan perusahaan adalah bahwa jika pencakar AI sibuk mengonsumsi halaman palsu, mereka tidak mengekstraksi nilai nyata.

Ini bukan perampokan pertama Cloudflare ke pertahanan bot AI. Pada Juli 2024, perusahaan meluncurkan alat gratis yang bertujuan membantu situs web memblokir bot AI. Ini diikuti pada bulan September 2024 oleh suite”manajemen bot”, yang menyediakan pemantauan langsung dan lebih banyak kontrol granular atas akses bot. CEO Cloudflare Matthew Prince menegaskan bahwa dengan sistem mereka, “Setiap crawler AI ditandai, bahkan mereka yang menggunakan penyamaran.”

Perusahaan bahkan menggambarkan solusi yang ditingkatkan sebagai”penjaga keamanan bersenjata”, peningkatan

Reuters, has stated that many AI agents simply Bypass Standar Web ini.

Bahkan Google, dengan infrastrukturnya yang luas, menghadapi tantangan dalam mengelola efisiensi merangkak. Illyes mengakui bahwa sementara Google berusaha mengurangi jejaknya yang merangkak, menunjukkan bahwa tuntutan produk AI baru sering menangkal upaya ini.

Ke depan, basis pengguna web itu sendiri mungkin mengalami perubahan mendasar. Pengamat industri Jeremiah Owyang, berbicara kepada

Dia lebih lanjut menyarankan ini mewakili transformasi yang signifikan untuk Internet, menjelaskan bahwa”lapisan data dan lapisan konten akan terpisah dan memisahkan dari lapisan presentasi,”secara mendasar mengubah bagaimana konten web diakses dan dikonsumsi. Pengaruh AI. Untuk bisnis. Mengabaikan munculnya agen AI risiko penurunan visibilitas dan penurunan yang signifikan dalam lalu lintas organik.

Ketika Web terus berkembang, pemilik situs web didesak untuk secara proaktif menilai infrastruktur mereka, memperkuat kontrol akses di luar robot. TXT, mengoptimalkan kiasan basis data, dan memantau lalu lintas yang sedang dalam pemantauan yang dikenakan untuk diferensiasi. Inisiatif seperti Common Crawl, yang merangkak web dan membagikan data secara publik untuk mengurangi lalu lintas yang berlebihan, juga disebutkan oleh ilinya sebagai model potensial untuk masa depan yang lebih berkelanjutan.