Editore indaga citazioni generate ai-Generate in New Book>
Un campione del libro, due terzi di 46 citazioni erano inesistenti o contenevano errori sostanziali. Ricercatori come Yehuda Dar e Aaron Courville, che sono stati citati nel testo, hanno confermato che le opere attribuite erano false o travisate.
L’autore del libro, Govindakumar Madhavan, è il fondatore di SeaPai e ha scritto numerosi altri libri e corsi di video. Ironia della sorte, la sua compagnia promesse Per aiutare”le organizzazioni a costruire sistemi di rilevamento delle frodi alimentati dall’intelligenza artificiale che sono accurati, responsabili e adattivi ai contenuti del mondo reale. Non ha risposto direttamente alle domande di grandi dimensioni). rimane una sfida, poiché persino il testo scritto dall’uomo può apparire”simile all’IA”.”
Questa risposta elimina la questione principale dell’uso di AI non dichiarato. Le politiche di Springer Nature affermano esplicitamente che”qualsiasi invio deve essere intrapresa con piena supervisione umana e qualsiasi uso di AI al di là della modifica di base deve essere dichiarata.”Le libro Non contiene tale dichiarazione. href=”https://www.springernature.com/gp/researchers/the-source/blog/blogposts-research-integrity/research-integrity-scholarly-books/2780154″target=”_ blank”> Blog post sull’integrità della ricerca , che deducono un processo in materia Validità.
Un modello di AI”Confidenty Wrong”Ai
Questo incidente non è isolato ma riflette una sfida persistente a livello di settore noto come allucinazione AI in questo fenomeno, in cui i modelli generano le informazioni sicure ma false, hanno causato ripetutamente problemi di lavoro professionale. Scusarsi formalmente in tribunale. Commentando la questione più ampia, l’ex scienziato decisionale di Google Cassie Kozirkov ha dichiarato:”Gli utenti odiano essere ingannati da una macchina in posa come un essere umano.”
Anche i modelli più avanzati non sono immuni. Problemi.
Dalla fabbricazione accidentale all’inganno deliberato
La minaccia per l’integrità è ora intensificata oltre la fabbricazione accidentale alla manipolazione intenzionale. href=”https://asia.nikkei.com/business/technology/artificial-intelligence/positive-review-onsearchers-hide-ai-prompts-in-Papers”Target=”_ blank”> riportato da Nikkei nel 20 luglio, ha scoperto una nuova forma di giochi accademici
Un’industria si arrampica per i guardrail etici
Questi incidenti in escalation rivelano le incidenti e le cose da fuoco Gli editori su AI usano un’area grigia che è matura per lo sfruttamento.
In risposta, gli organi del settore chiave stanno iniziando ad agire. In Peer Review , sottolineando la necessità di trasparenza e solida supervisione umana. Tuttavia, gli esperti avvertono che i nuovi metodi di inganno continueranno a emergere.