Penyelidikan yang dibentangkan di persidangan chi 2025 mendedahkan corak yang ingin tahu tentang cara yang tidak sah dari

Keutamaan ini muncul walaupun orang menunjukkan keupayaan untuk membezakan antara teks AI dan manusia yang ditulis lebih baik daripada peluang yang akan meramalkan, mencadangkan hubungan yang rumit dengan kepakaran automatik, seperti yang terperinci dalam kertas bertajuk”Objektif Overat! href=”https://dl.acm.org/doi/10.1145/3706598.3713470″Target=”_ Blank”> Penemuan Batang dari satu siri tiga eksperimen yang melibatkan 288 peserta. Penyelidik membentangkan senario undang-undang yang meliputi isu-isu biasa seperti trafik, perancangan, dan undang-undang harta, berdasarkan pertanyaan dalam talian dunia sebenar yang diperoleh dari platform seperti

Risiko

Keutamaan ini untuk nasihat AI yang tidak dapat dikesan adalah sangat relevan memandangkan isu-isu kebolehpercayaan yang diketahui melanda LLM semasa. Memandangkan model-model ini berkembang menjadi aplikasi yang memberi nasihat yang lebih sensitif, seperti ciri penyelidikan mendalam yang baru-baru ini dikemas kini dalam CHATGPT, risiko pengguna yang bertindak atas maklumat yang tidak tepat. OpenAI sendiri mencipta tindakan yang tidak dapat dilakukan . Seperti yang diterjemahkan penyelidik Neil Chowdhury mencadangkan kepada TechCrunch,”Hipotesis kami adalah bahawa jenis pembelajaran tetulang yang digunakan untuk model O-siri dapat menguatkan isu-isu yang biasanya dikurangkan (tetapi tidak sepenuhnya dipadamkan) oleh saluran paip pasca latihan standard.”Latar belakang yang tidak dapat dipercayai ini menggariskan kebimbangan yang dibangkitkan oleh penemuan kertas Chi pada amanah pengguna.

Konteks yang lebih luas dan bergerak ke hadapan

Semasa penggunaan tumbuh, jSpsych / Rangka kerja sains terbuka .

Categories: IT Info