În fața unui potop de conținut de calitate scăzută, generat de inteligență artificială, serverul academic de pretipărire arXiv își înăsprește regulile de trimitere pentru lucrări de informatică.
Într-un anunț pe 31 octombrie, categoria influențată a articolului informatic nu va mai fi acceptată în categoria articolelor informatice (nu vor mai fi acceptate pe platforma informatică). a trecut deja o evaluare inter pares la un jurnal sau o conferință recunoscută.
Mișcarea este concepută pentru a reduce sarcina asupra moderatorilor voluntari și se confruntă direct cu un val de trimiteri despre care arXiv spune că sunt „rapide și ușor de scris” cu IA generativă, dar adesea lipsită de substanță.
O inundație de „slop” generată de IA
Într-un efort de a proteja calitatea cercetării, arXiv se confruntă direct cu impactul modelelor lingvistice mari asupra publicării academice. Platforma a fost inundată de trimiteri, în special în secțiunea sa de informatică în mișcare rapidă.
Conform declarației sale oficiale, site-ul primește acum „sute de articole de recenzie în fiecare lună”. Volumul său imens a devenit imposibil de gestionat pentru sistemul de verificare al platformei.
Multe dintre aceste trimiteri nu îndeplinesc standardele academice de bază. Moderatorii arXiv au descoperit că „majoritatea articolelor de recenzie pe care le primim sunt puțin mai mult decât bibliografii adnotate, fără discuții substanțiale despre problemele de cercetare deschise.”
Asemenea lucrări contribuie la zgomotul academic, pierzând timpul cercetătorilor care caută perspective noi. O astfel de ușurință în producție a dus la o presiune semnificativă asupra experților voluntari care verifică lucrările.
Așa cum a explicat arXiv, „modelele generative de inteligență artificială/limbi mari s-au adăugat la această inundație prin realizarea de lucrări – în special lucrări care nu introduc rezultate noi ale cercetării – rapid și ușor de scris.”
Acest val de amenințare a platformei de cercetare legitime și a efortului de îngropare a conținutului legitim amenință valoare.
Uneltele sofisticate care permit acest potop sunt, de asemenea, în creștere ca număr și capacitate. Lucrări recente, cum ar fi una care descrie un asistent de cercetare AI multi-agent, demonstrează o tehnologie capabilă să automatizeze întregul proces de scriere academică, de la idee până la redactare.
Această tehnologie face trivială generarea de recenzii a literaturii cu sunet plauzibil, dar în cele din urmă goale, exacerbând problema pe care arXiv încearcă acum să o rezolve. Solicitarea unei evaluări inter pares prealabile acționează ca un filtru crucial, externalizarea controlului inițial al calității către reviste și conferințe consacrate.
Un sistem sub presiune
Deși schimbarea politicii este nouă, problema de bază nu este. procesul academic de evaluare inter pares se luptă de ani de zile sub o cultură „publicare sau peri” care stimulează cantitatea în detrimentul calității.
Experți precum Satoshi Tanaka de la Kyoto au susținut că într-un proces de evaluare a universității farmaceutice „a susținut că Universitatea Farmaceutică”. criză”.
La agravarea crizei este numărul limitat de evaluatori voluntari, care sunt copleșiți de numărul de trimiteri. Această oboseală creează o vulnerabilitate pe care instrumentele AI, atât în bine, cât și în rău, încep să o exploateze.
arXiv a fost în centrul dezbaterilor despre AI și integritatea academică înainte. Anul trecut, cercetătorii au fost găsiți chiar încorporând comenzi ascunse în lucrările lor pentru a manipula sistemele de revizuire bazate pe inteligență artificială, o practică cunoscută sub numele de injectare promptă.
Ascund instrucțiunile în text alb sau fonturi microscopice, autorii au încercat să păcălească sistemele automate pentru a oferi feedback pozitiv. Acel incident a evidențiat cât de ușor ar putea fi jucate sistemele automatizate, subminând întregul proces de revizuire.
Nuanțarea recentă a modificării arXiv a fost chiar o sursă de confuzie, unele puncte de vânzare raportând inițial în mod greșit domeniul de aplicare al noii reguli.
Nu o nouă politică, ci o punere în aplicare necesară
neadministrată. oficialii au clarificat că schimbarea este mai degrabă o acțiune de aplicare decât o nouă politică.
Articolele de recenzie și documentele de poziție nu au fost niciodată acceptate oficial, dar au fost permise în mod istoric la discreția moderatorului atunci când erau de înaltă calitate și de interes academic.
O explozie recentă a volumului, condusă de AI, a făcut pur și simplu această abordare discreționară insuportabilă. Protejarea timpului acestor moderatori voluntari – piatra de bază a sistemului de pretipărire – este esențială.
Orientările platformei arXiv afirmă că autorii umani sunt pe deplin responsabili pentru orice conținut produs de instrumentele AI și interzic în mod explicit listarea unui AI ca co-autor.
Adoptarea acestei noi practici de moderare pentru categoria CS este un principiu logical pentru extinderea categoriei CS, care rămâne logică pentru validarea acestui principiu uman. primordial. Editorii din industrie se confruntă cu acest lucru, creând politici fragmentate.
În timp ce unii permit utilizarea limitată a AI, alții, cum ar fi Elsevier, l-au interzis în întregime, ca tehnologia incompletă sau incorectă, care va genera concluzii.”
Privind în viitor, platforma a indicat că alte discipline ar putea vedea schimbări similare. În anunțul său, arXiv a menționat: „Dacă alte categorii înregistrează o creștere similară a articolelor de recenzii scrise de LLM și a documentelor de poziție, ele pot alege să-și schimbe practicile de moderare într-un mod similar…”
O astfel de mișcare sugerează o potențială schimbare la nivel de platformă dacă valul de conținut generat de AI continuă să se răspândească. Poziționează mișcarea arXiv nu ca o soluție izolată, ci ca un potențial punct de vedere al modului în care întreaga comunitate științifică va fi forțată să se adapteze provocărilor și tentațiilor AI generative.