Công ty AI Anthropic đã tiết lộ ngày hôm nay rằng các mô hình AI tiên tiến của nó đang được tích cực hóa vũ khí bởi tội phạm mạng cho các cuộc tấn công tinh vi, từ đầu đến cuối. Trong một báo cáo tình báo mối đe dọa mới, công ty nêu chi tiết một xu hướng đáng lo ngại mà họ gọi là sự háo hức của Vibe”, trong đó một diễn viên độc hại duy nhất sử dụng một tác nhân AI như Claude vừa là một nhà tư vấn kỹ thuật vừa là nhà điều hành tích cực. Nó cho phép các tác nhân đe dọa có các kỹ năng hạn chế để xây dựng ransomware, phân tích dữ liệu bị đánh cắp và thậm chí giúp các nhà hoạt động của Triều Tiên gian lận đảm bảo các công việc công nghệ lương cao để tài trợ cho các chương trình do nhà nước tài trợ. Điều này đánh dấu một sự tiến hóa đáng kể trong việc sử dụng AI cho các mục đích độc hại. Các hệ thống AI của tác nhân đang được vũ khí hóa.”Điều này di chuyển mối đe dọa vượt ra ngoài sự trợ giúp đơn giản để thực hiện tích cực các cuộc tấn công của các tác nhân AI.

(được theo dõi là GTG-2002) trong đó một diễn viên duy nhất sử dụng tác nhân mã Claude của mình để tiến hành chiến dịch tống tiền dữ liệu được chia tỷ lệ. Chỉ trong vòng một tháng, hoạt động đã xâm phạm ít nhất 17 tổ chức riêng biệt giữa các lĩnh vực như chăm sóc sức khỏe, dịch vụ khẩn cấp và chính phủ.

AI không chỉ đơn thuần là theo kịch bản. Trong khi diễn viên cung cấp một tập tin hướng dẫn với các chiến thuật ưa thích, đại lý vẫn được tận dụng để đưa ra cả quyết định chiến thuật và chiến lược. Nó xác định làm thế nào để thâm nhập tốt nhất các mạng, dữ liệu nào để thoát ra và làm thế nào để tạo ra các nhu cầu tống tiền được nhắm mục tiêu tâm lý. Trong giai đoạn trinh sát, tác nhân đã tự động hóa việc quét hàng ngàn điểm cuối VPN để xác định các hệ thống dễ bị tổn thương. Trong quá trình xâm nhập, nó cung cấp hỗ trợ thời gian thực, xác định các hệ thống quan trọng như bộ điều khiển miền và trích xuất thông tin đăng nhập.

Mã Claude cũng được sử dụng để phát triển phần mềm độc hại tùy chỉnh. Nó đã tạo ra các phiên bản obfuscated của các công cụ đường hầm hiện có để trốn tránh Windows Defender và thậm chí phát triển mã proxy TCP hoàn toàn mới từ đầu. Khi các nỗ lực trốn tránh ban đầu không thành công, AI đã đề xuất các kỹ thuật mới như mã hóa chuỗi và tên tệp giả mạo để ngụy trang các thực thi độc hại của nó. Nó đã phân tích dữ liệu bị đánh cắp để tạo ra các chiến lược tống tiền nhiều tầng, tạo ra các kế hoạch lợi nhuận chi tiết”bao gồm tống tiền tổ chức trực tiếp, bán dữ liệu cho các tội phạm khác và áp lực nhắm mục tiêu vào các cá nhân có dữ liệu bị xâm phạm. href=”https://www.theverge.com/ai-artificial-intellect/766435/anthropic-laude-theat-intellect-vort-aitaicerecurity AI tính toán số tiền chuộc tối ưu dựa trên phân tích của nó, với nhu cầu đôi khi vượt quá 500.000 đô la. Điều này về cơ bản làm thay đổi bối cảnh mối đe dọa, khiến cho việc đánh giá một kẻ tấn công là khó khăn hơn chỉ dựa trên sự phức tạp của hoạt động của họ. href=”https://www-cdn.anthropic.com/B2A76C6F6992465C09A6F2FCE282F6C0CEA8C200.pdf”Target=”_ Blank”> Báo cáo nêu rõ, AI AI làm giảm các rào cản đối với tội phạm mạng tinh vi.”Đây không phải là một rủi ro lý thuyết; Công ty đã xác định một diễn viên có trụ sở tại Vương quốc Anh (GTG-5004), người thể hiện hoàn hảo mô hình mới này. Nam diễn viên xuất hiện không thể thực hiện mã hóa phức tạp hoặc khắc phục sự cố kỹ thuật mà không cần hỗ trợ của Claude, nhưng vẫn tiếp thị và bán thành công ransomware. Một DLL ransomware cơ bản và thực thi đã được cung cấp với giá 400 đô la, một bộ RAAS đầy đủ với bảng điều khiển PHP an toàn và các công cụ chỉ huy và kiểm soát với giá 800 đô la, và một lớp vỏ hoàn toàn không thể phát hiện (FUD) đối với các bộ công cụ được chế tạo ít hơn. Nam diễn viên duy trì bảo mật hoạt động bằng cách phân phối thông qua một trang web.onion và sử dụng email được mã hóa, tuyên bố một cách quyết đoán các sản phẩm là đối với việc sử dụng giáo dục và nghiên cứu chỉ”trong khi quảng cáo trên các diễn đàn hình sự. Các tính năng cốt lõi của nó bao gồm mật mã luồng Chacha20 để mã hóa tệp, sử dụng API Windows CNG để quản lý khóa RSA và các cơ chế chống thu hồi như xóa các bản sao bóng âm lượng để ngăn chặn phục hồi dễ dàng. Các phương pháp này sử dụng lệnh gọi trực tiếp của Syscall để bỏ qua các móc API của chế độ người dùng thường được sử dụng bởi các giải pháp EDR. Điều này thể hiện một sự chuyển đổi hoạt động đáng kể trong đó năng lực kỹ thuật được gia công cho AI thay vì có được thông qua kinh nghiệm.

Sự cố này chỉ là một ví dụ về xu hướng vũ khí AI rộng hơn. Như các báo cáo của WinBuzzer trước đây đã được chi tiết, sự thay đổi này có thể nhìn thấy trên bối cảnh đe dọa, từ những kẻ tấn công đã sử dụng các trang web của Vercel, V0 cho các trang web lừa đảo ngay lập tức”đến sự phát triển của các công cụ như Wormgpt, hiện đang có các mô hình hợp pháp như GROK/PROP Một chiến dịch có hệ thống và tinh vi của các nhân viên CNTT của Triều Tiên, những người đang tận dụng Claude để lừa đảo và duy trì các công việc công nghệ lương cao tại các công ty Fortune 500. Theo cuộc điều tra nhân học, các hoạt động này được thiết kế để trốn tránh các lệnh trừng phạt quốc tế và tạo ra hàng trăm triệu đô la hàng năm để tài trợ cho các chương trình vũ khí của quốc gia. Những cá nhân này xuất hiện không thể viết mã cơ bản, các vấn đề gỡ lỗi hoặc thậm chí giao tiếp chuyên nghiệp mà không cần hỗ trợ AI liên tục. Điều này tạo ra một mô hình mới trong đó năng lực kỹ thuật không được sở hữu, nhưng hoàn toàn được mô phỏng. Trong giai đoạn phát triển cá nhân ban đầu”, các nhà khai thác sử dụng Claude để tạo ra các nền tảng chuyên nghiệp thuyết phục, tạo danh mục đầu tư kỹ thuật với lịch sử dự án và các tài liệu tham khảo văn hóa nghiên cứu để xuất hiện xác thực. Điều này cho phép họ vượt qua thành công các cuộc phỏng vấn cho các vai trò mà họ không đủ điều kiện.

Sau khi được thuê, sự phụ thuộc tăng cường. Trong giai đoạn bảo trì việc làm của người dùng”, các hợp tác xã dựa vào AI để cung cấp công việc kỹ thuật thực tế, tham gia vào giao tiếp nhóm và trả lời đánh giá mã, duy trì ảo tưởng về năng lực. Dữ liệu của Anthropic cho thấy khoảng 80% các hợp tác xã sử dụng Claude phù hợp với việc làm tích cực. Trong lịch sử, điều này đã hạn chế số lượng thành viên mà chế độ có thể triển khai. Bây giờ, AI đã loại bỏ một cách hiệu quả ràng buộc này, cho phép các cá nhân có các kỹ năng hạn chế để đảm bảo và giữ các vị trí kỹ thuật sinh lợi. Vũ khí hóa AI này không xảy ra trong chân không. Microsoft đã cảnh báo rằng, AI AI đã bắt đầu hạ thấp thanh kỹ thuật cho các diễn viên gian lận và tội phạm mạng, giúp việc tạo ra nội dung đáng tin cậy dễ dàng hơn và rẻ hơn cho các cuộc tấn công mạng với tốc độ ngày càng nhanh.”Để đối phó với những phát hiện của nó, nhân học đã cấm các tài khoản độc hại và cải thiện công cụ của nó để tương quan các chỉ số thỏa hiệp đã biết. Công ty cũng đang chia sẻ các chỉ số kỹ thuật với các đối tác trong ngành để giúp ngăn chặn lạm dụng trên toàn hệ sinh thái.

Categories: IT Info