Główny wydawca akademicki Springer Nature bada nowy podręcznik uczenia maszynowego po tym, jak grupa strażnicza znalazła ją z sfabrykowanymi cytatami-charakterystycznym znakiem treści generowanych przez AI. Książka „Mastering Machine Learning” została opublikowana w kwietniu 2025 r..

Wady zostały ujawnione przez Watch na koniec czerwca

Kontrowersje rodzą pilne pytania dotyczące procesów weryfikacji wydawców i krytycznej potrzeby nadzoru człowieka, ponieważ generatywny AI staje się bardziej powszechny.

Publisher Investigates ai-genered cytatów w nowej książce

Raport stwierdził, że stwierdzono, że RETRICation stwierdzono. W próbce z książki dwie trzecie 46 cytowań nie istniało lub zawierało znaczne błędy. Naukowcy tacy jak Yehuda Dar i Aaron Courville, którzy zostali cytowane w tekście, potwierdzili, że przypisane im prace były fałszywe lub wprowadzone w błąd.

Autor książki, Govindakumar Madhavan, jest założycielem SeaPortai i napisał wiele innych książek i realizację wideo. Jak na ironię, jego firma obietnice Aby pomóc „organizacjom w budowaniu systemów wykrywania oszustw związanych z AI (llms). Zamiast tego„ powiązane i dostosowujące się do zagrożeń w świecie rzeczywistym. Nie odpowiedział bezpośrednio na pytania dotyczące jego wykorzystania dużych modeli językowych (LLM) pozostaje wyzwaniem, ponieważ nawet tekst napisany przez człowieka może wydawać się „podobny do AI”. “

Ta odpowiedź przynosi podstawową kwestię niezgłoszonej AI Użycie. Polityka Springer Nature wyraźnie stwierdza, że„ każde zgłoszenie należy podjąć z pełnym ludzkim nadzorem, a wszelkie wykorzystanie AI wykraczające poza podstawową edycję kopii musi zostać ogłoszona. “. href=”https://link.springer.com/Book/10.1007/978-981-97-9914-5″Target=”_ puste”> książka Nie ma takiego deklaracji.

W odpowiedzi na odkrycia potwierdziło, że wydawcy. href=”https://www.springernature.com/gp/researchers/the-source/blog/blogposts-research-integrity/research-integrity-schollly-books/27780154″Target=”_ BLOG”Post na blogu Integrity , Zestrzelanie procesu, w którym emisje są przeznaczone, aby zapewnić ManUrcript. Ważność.

Wzór „pewnie błędnego” AI

Ten incydent nie jest izolowany, ale odzwierciedla trwałe wyzwanie w branży znane jako halucynacja AI. W sądzie. Komentując szerszy problem, były główny naukowiec Google Cassie Kyyrkov, „Użytkownicy nienawidzą maszyny, które pozująca ludzka.”

Nawet najbardziej zaawansowane modele nie są odporne na teoryczne metody. Problem. href=”https://asia.nikkei.com/business/technology/artificial-intelligence/positive-review-ly-researchers-hide-ai-prompts-in-papers”target=”_ puste”> zgłoszone przez Nikkei w lipcu 2025 r. Niedawle nowej formy akademickiej gry . Polecenia, zwane szybkimi atakami wtrysku, w ich dokumentach w celu oszukania systemów przeglądu. Zastosowany przegląd sztucznej inteligencji, stanowi „Ostreadowanie recenzji”. „Jest to bezpośredni napad na proces recenzji.

Przemysł stara się o etyczne poręcze

Te eskalacyjne instancje ujawniają system pod ogromnym presją, w którym„ publikacja lub perish “może zakłócać skrajnie i pomyślał. Wydawcy Użyj AI Utwórz szarą strefę, która jest dojrzała do wykorzystania.

W odpowiedzi kluczowe organy branżowe zaczynają działać. W recenzji podkreślając potrzebę przejrzystości i solidnego nadzoru ludzkiego. Eksperci ostrzegają jednak, że pojawią się nowe metody oszustwa.

Categories: IT Info