XAI Elona Muska stoi w obliczu krytyki po swoim chatbcie, Grok AI, wygenerował odpowiedź sugerującą, że zarówno Musk, jak i Prezydent USA Donald Trump „zasługują na karę śmierci.”

Odpowiedź chatbota, pierwotnie zgłoszona przez The Verge , odnowiło obawy dotyczące moderacji treści AI i Wiarygodność podejścia XAI do nieograniczonych odpowiedzi chatbota.

Incydent rozwinął się, gdy użytkownik zapytał Grok, który powinien otrzymać śmierć Kara..

XAI potwierdza „straszną i złą porażkę”, wydaje łatkę

Gdy zamontował luz, główny badacz XAI Igor Babuschkin przyznał do tego problemu, opisując go jako „Naprawdę okropna i zła awaria.” Potwierdził, że XAI zastosował łatkę, aby zapobiec podobnym wyjściom, ale nie podał dalszych szczegółów na temat modyfikowania chatbota.

Naprawdę straszna i zła awaria z Grok. Na razie tak to załataliśmy, dopóki nie zakończymy dochodzenia w sprawie tego, co się tutaj poszło nie tak. pic.twitter.com/qyqdtjlqev

-Igor Babuschkin (@ibab) 21 lutego 2025 r.

Niepowodzenie Grok AI wyróżniają bieżącą debate o AI Moderation. W przeciwieństwie do Chatgpt lub Google Gemini Openai, które używają surowszych ram moderacji, XAI sprzedawał Grok jako chatbot z minimalnymi ograniczeniami treści. Wydaje się, że brak zabezpieczeń odegrał rolę w niefiltrowanej reakcji chatbota.

Grok nie jest jedynym modelem AI, w którym staje się publiczna krytyka. Generator obrazu Google Gemini został wyciągnięty wkrótce po pierwszym wydaniu, gdy pojawiły się historycznie niedokładne obrazy generowane przez Gemini, co podkreśla trudności, jakie spotykają firmy AI w równowadze włączania i reprezentacji faktycznej. Tymczasem Openai i antropiczne zostały skrytykowane za nadmierne rezygnacje w celu uniknięcia kontrowersji.

Polityka moderacji Grok: celowy kompromis?

Musk postawił chatbot XAI jako alternatywę dla głównego nurtu modeli AI, argumentując, że nadmierna moderacja ogranicza przydatność AI. Jednak incydent ten rodzi obawy, że luźniejsze ograniczenia Grok mogą prowadzić do nieprzewidywalnych i nieodpowiednich odpowiedzi. Podczas gdy niektórzy użytkownicy doceniają brak filtrowania treści CHATBOT, ta najnowsza porażka sugeruje, że podejście XAI może wymagać większego nadzoru.

Grok został wcześniej krytykowany za niedokładne lub nieoczekiwane odpowiedzi, ale ten przypadek jest jak dotąd najbardziej ekstremalny. Niepowodzenie zintensyfikowało dyskusje na temat tego, czy modele AI powinny priorytetowo traktować nieograniczoną rozmowę lub odpowiedzialną moderację treści.

Kontrowersje pojawiają się zaledwie kilka dni po wprowadzeniu XAI Grok 3, najnowszej wersji jego chatbota, które, jak twierdził, Musk przekroczył GPT-Openai’s GPT-4 Turbo w kluczowych testach porównawczych. Według XAI, Grok 3 przewyższa GPT-4O w Math (Aime’24), Science (GPQA) i Coding (LCB OCT-FEB).

Grok 3 jest zasilany przez Colosususa, superkomputera XAI zaprojektowanego Wspieraj szkolenia AI na dużą skalę za pomocą infrastruktury zdolnej do obsługi do miliona procesorów graficznych NVIDIA w najbliższej przyszłości. Chociaż podkreślono postępy techniczne Chatbota, niedawna awaria moderacyjna dotyczy kwestionowania, czy XAI ma zrównoważone wyniki z etycznymi zabezpieczeniami.

Pozew Openai Musk i strategia konkurencyjna XAI

Czas porażki Grok Ai komplikuje trwającą walkę Muska z Openai. Miliarder, który był współzałożycielem Openai, zanim później dystansował się od firmy, niedawno eskalował swoją krytykę, oskarżając ją o priorytetyzowanie interesów korporacyjnych w stosunku do pierwotnej misji non-profit. Jego frustracja zakończyła się pozwem przeciwko Openai i dyrektora generalnego Sam Altman, w którym Musk twierdzi, że partnerstwo Openai z Microsoft doprowadziło do monopolizacji zaawansowanych technologii AI.

, podczas gdy Musk ustalił XAI jako przeciwwagę dla Openai do podejścia Openai. , Porażka Grok podważa jego argument, że modele AI powinny być mniej ograniczone. Mister chatbota sugeruje, że minimalne filtrowanie treści wiąże się z ryzykiem, wzmacniając stanowisko firm AI, które priorytetują ramy moderacyjne.

droga przed Grok i Xai

Pomimo tego niepowodzenia XAI naciska do przodu. Firma rzekomo pracuje nad SuperGrok, ulepszoną wersją swojej chatbota, która ma wprowadzić bardziej zaawansowane możliwości rozumowania. Projekt sygnalizuje, że XAI pozostaje zaangażowany w opracowywanie modeli AI, które podważają dominację Openai.

Dla XAI wyzwaniem jest równoważenie wydajności i zaufania. Szybka ewolucja możliwości sztucznej inteligencji zmusza programistów do udoskonalenia rozumowania chatbota, ale jak pokazuje awaria Grok, postęp techniczny niewiele oznaczają, jeśli użytkownicy nie mogą polegać na AI, aby zapewnić odpowiedzialne i odpowiednie kontekstowo odpowiedzi.

Czy XAI dostosuje jego dostosowanie jego Zasady moderacji treści w przyszłych wersjach dopuszczają się. Jednak ten incydent wyjaśnił jedno: w wyścigu o zbudowanie najbardziej zaawansowanego chatbota bezpieczeństwo pozostaje tak samo ważne jak wydajność.

Categories: IT Info