Global Consulting Giant Deloitte står overfor intens gransking etter å ha innrømmet at den brukte generativ AI i en $ 440 000-rapport for den australske regjeringen.
Firmaet vil betale tilbake $ 97 000 etter at AI-drevne analysen produserte fabrikk og betydelige faktafeil. System, bestilt i desember 2024 av Department of Employment and Workplace Relations (DEWR). Temaet var svært følsomt, etter landets beryktede”RobodeBT”-skandale, som gjorde nøyaktigheten til å være viktig.
hans mistanker ble bekreftet da han møtte sitater tilskrevet sine egne kolleger. Dr. Rudge forklarte at da han så at bøker ble tilskrevet kollegene som han aldri hadde hørt om, konkluderte han raskt med at de ble fremstilt.
Dette var ikke mindre typoer, men hele, ikke-eksisterende verk-et klassisk tegn på en”hallo-por-por-por-por. Lisa Burton Crawford. Mens hennes faktiske bok er tittelen “Regel of Law and the Australian Constitution”, Deloitte-rapporten siterte et fantomverk kalt “Regel of Law and Administrative Justice in the Welfare State, en studie av CenterLink.” ///por/por/por/por/por/por/por///////////////p.>
I følge Dr. Rudge finnes det ingen slike avsnitt i den faktiske kjennelsen. I sin gjenutgitte versjon innrømmet Deloitte rapporten”inneholdt feil”angående Amato-prosedyren.
Videre undergravde rapportenes troverdighet, oppfant AI en tale og tilskrev den til”Justice Natalie Kuis Perry.”
i virkeligheten. Dette mønsteret med å generere plausibel, men helt falsk informasjon, viser en kritisk fiasko i Deloittes kvalitetssikring og menneskelige tilsynsprosesser.
En delvis refusjon og en oppfordring til gjennomsiktighet
Etter det offentlige ropet, Deloitte som ble gitt ut rapporten på 3. oktober. En vedlegg. En Model ble lagt til, og avslørte at det ble lagt til en vedlegg. En vedlegg. En vedlegg. En modell ble lagt til. Firmaet insisterte på at rapportens kjernefunn og anbefalinger forble lyd, selv om det gikk med på å tilbakebetale den endelige delen av $ 97.000 av kontrakten.
Regjeringens svar var skarp. Under en senatsmøte kalte DeWR-tjenestemenn arbeidet”uakseptabelt.”One spokesperson highlighted the breakdown in quality assurance, stating, “my people should not be double-checking a Tredjepartsleverandørens fotnoter.”
Labor Senator Deborah O’Neill tilbød en spesielt sviende irettesettelse, stating, “Deloitte has a human intelligence problem. This would be laughable if it var ikke så beklagelig.”
Hun foreslo at hvis dette var kvaliteten på arbeidet som ble produsert, kan regjeringsavdelinger ha det bedre med et direkte AI-abonnement, og bemerket:”Kanskje i stedet for et stort konsulentfirma, ville procurers være bedre å registrere deg for en chatgpt-abonnement.”Høydepunkter Det nye problemet med”AI Slop”-Lav-kvalitet, feilaktig eller nonsensisk innhold generert av AI og presentert som saklig arbeid. Når slikt innhold infiltrerer dokumenter som er ment å veilede regjeringens politikk, blir risikoen forstørret.
DR. Rudge advarte om at korreksjonene i seg selv var avslørende. Han bemerket at enkeltfalske referanser ofte ble erstattet av flere nye,
Skandalen fremhever også en økende utfordring: å oppdage AI-generert tekst. Mens det finnes verktøy for å identifisere AI-skriving, er effektiviteten deres sterkt diskutert. Dette skaper et scenario der mangelfulle rapporter kan aksepteres som faktum, noe som fører til dårlig beslutningstaking på de høyeste nivåene.