Major Academic Publisher Springer Nature undersøker en ny maskinlæringst lærebok etter at en vakthundgruppe fant den full av fabrikkerte sitasjoner-et fortellende tegn på AI-generert innhold. Boken,”Mastering Machine Learning”, ble utgitt i april 2025.

Manglene ble utsatt av

Kontroversen reiser presserende spørsmål om utgivernes verifiseringsprosesser og det kritiske behovet for menneskelig tilsyn som generativ AI blir mer utbredt.

utgiver fra å få heter fra å få en bok fra å få en bok som er nybok av. At i en prøve fra boka var to tredjedeler av 46 siteringer enten ikke-eksisterende eller inneholdt betydelige feil. Forskere som Yehuda Dar og Aaron Courville, som ble sitert i teksten, bekreftet at verkene som ble tilskrevet dem var falske eller feilrepresentert.

Bokens forfatter, Govindakumar Madhavan, er grunnleggeren av Seaportai og har skrevet mange andre bøker og videokurs. Ironisk nok er selskapet hans Løfter Å hjelpe “organisasjoner med å bygge AI-drevne svindeldeteksjonssystemer som er nøyaktige, ansvarlige og tilpasningsmodeller) som ikke er et problem. Generert er fortsatt en utfordring, ettersom selv menneskeskrevet tekst kan vises ‘AI-lignende.’”

Dette svaret sidestiller kjernen i uklærte AI-bruk. Springer Nature’s politikk oppgir eksplisitt at“ enhver innlevering må utføres med full menneskelig tilsyn, og enhver AI-bruk utover grunnleggende kopi-redigering må deklares. href=”https://link.springer.com/book/10.1007/978-981-97-9914-5″Target=”_ Blank”> Bok Inneholder ikke noe slik erklæring. som svar på funnene. href=”https://www.springernature.com/gp/researchers/the-source/blog/blogposts-research-integrity/research-integrity-scholarly-books canus ° a prosess where emne _ blank”blogg å researre en integritet outl. Gyldighet.

Et mønster av ‘trygt galt’ AI

Denne hendelsen er ikke isolert, men gjenspeiler en vedvarende bransjeutfordring kjent som AI Hallucination. Måtte formelt be om unnskyldning i retten Begjorde en offentlig unnskyldning. Amplify disse problemene.

fra tilfeldig fabrikasjon til bevisst bedrag

Trusselen mot integritet er nå eskalerer utover utilsiktet fabrikasjon til forsettlig manipulering. href=”https://asia.nikkei.com/business/technology/artificial-intelligence/positive-rereview-only-researchers-hide-ai-prompts-in-papers”Target=”_ blank”> rapportert av Nikkei i juli 2025 uten å få en ny form for akademisk spill”Skjulte kommandoer, kjent som rask injeksjonsangrep, inn i papirene sine for å lure AI-gjennomgangssystemer. Paper aksepteres basert på en rigget AI-gjennomgang, det utgjør ‘fagfellevurderingsrigging.’”Dette representerer et direkte angrep på fagfellevurderingsprosessen.

En industri som rusler for etiske rekkverk

Disse eskalerende incent-ene som viser et system under et enormt press. Fragmenterte retningslinjer for utgivere om AI-bruk Opprett et grått område som er moden for utnyttelse.

Som svar begynner nøkkelindustriens organer å handle. Veiledning om AI i fagfellevurdering , og understreker behovet for åpenhet og robust menneskelig tilsyn. Formell anerkjennelse av problemet.

Categories: IT Info