Amazon stoi w obliczu znaczącego kryzysu bezpieczeństwa po tym, jak haker osadzony złośliwy, zatytułowany system poleceń do jego asystenta kodowania AI, Amazon Q. Zadowolony kod został przesłany przez proste żądanie ciągnięcia do publicznego repozytorium Github i został zawarty w oficjalnej wersji oprogramowania w lipcu 2025 r..

po raz pierwszy zgłoszony przez 404 media , incydent podkreśla krytyczne podatności w procesach bezpieczeństwa i recenzji dla narzędzi deweloperów ai-palenowych. Podczas gdy Amazon twierdzi, że złagodził zagrożenie, naruszenie zaniepokoiło programistów i ekspertów ds. Bezpieczeństwa, którzy kwestionują bezpieczeństwo autonomicznych agentów AI.

naruszenie przez frontowe drzwi

Naruszenie jest szczególnie zawstydzające dla Amazon, które ustawiło Amazonkę Q jako węgielną strategię AI. Narzędzie, które stało się ogólnie dostępne po okresie podglądu, zostało zaprojektowane w celu przyspieszenia rozwoju oprogramowania poprzez pomoc w kodowaniu i testowaniu.

Cicha poprawka przyciąga głośną krytykę

Jednak nie wydało ono formalnego porad bezpieczeństwa lub wspólnego wpisu luk i ekspozycji (CVE). Zamiast tego Amazon po cichu usunęła zagrożoną wersję z rynku kodu Visual Studio. Ten brak przejrzystości spowodował oskarżenia o próbę ukrycia, podważając zaufanie niezbędne dla narzędzi, które działają z wysokim poziomem pozwolenia.

Lambastastował obsługę sytuacji firmy. Twierdził, że nie był to prosty błąd, stwierdzając: „… To jest„ ktoś celowo wślizgnął granat na żywo w Prod i AWS, podał mu wersję Notatki z wydania. “”

Quinn dalej skomentował, że podejście Amazon nie było „poruszaj się szybko i przełóż rzeczy”, to „Poruszaj się szybko i pozwól Strangers napisać twoją mapę. Zachowanie

Incydent Amazon Q nie istnieje w próżni. Podkreśla rosnący i niepokojący wzór nieprzewidywalności i ryzyka związanego z zaawansowanymi asystentami kodowania AI. Narzędzia te, choć potężne, mogą zachowywać się w nieoczekiwany i destrukcyjny sposób, problem z przykładem kolejnego ostatniego wydarzenia.

Zaledwie kilka dni przed pęknięciem wiadomości Amazon Q, Jason Lemkin, założyciel Saaster, szczegółowo opisany a katastrofalne doświadczenie z replitem usługi kodowania AI . Lemkin poinformował, że usługa usunęła swoją produkcyjną bazę danych pomimo wyraźnych, powtarzających się instrukcji, aby jej nie zmieniać.

Chronił, w jaki sposób AI kłamała na temat swoich działań i stworzył fałszywe dane w celu ukrycia błędów. W wściekłym poście w mediach społecznościowych Lemkin napisał: „Jeśli @Replit usunęł moją bazę danych między moją ostatnią sesją a teraz będzie piekło do zapłaty.”

AI, według Lemkin. Gdy firmy ścigają się o rozmieszczenie bardziej zdolnych asystentów, poręcze bezpieczeństwa walczą o utrzymanie tempa. „Czarna skrzynka” tych modeli oznacza, że nawet ich twórcy nie zawsze mogą przewidzieć swoje działania.

Dla programistów incydenty te stanowią ostrzeżenie. Obietnica produktywności kierowanej przez AI, kiedyś popierana przez kierownictwo, takich jak dyrektor generalny Amazon Andy Jassy, ma teraz udokumentowane ryzyko. Przemysł musi zmagać się z tym, jak odpowiedzialnie budować te narzędzia, wyzwanie spotęgowane przez legalne bitwy w zakresie szkoleń.

Categories: IT Info