チューリッヒ大学(UZH)の学者は、Redditの r/changemyview p> p> p> cmv)
cmv)に密かにコメントを投稿するために、AI主導のアカウントを展開したことを確認しました。ライブオンラインフォーラムの大規模な言語モデルの説得力のある力。しかし、AIを使用してターゲットを絞った議論のために個人的なユーザーの詳細を推測し、敏感なペルソナになりすましたその方法は、フォーラムのボランティアモデレーターから強い非難を引き起こし、研究が疑いを持たないオンライン参加者を伴う研究倫理に関する議論を発表しました。 href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involvinving/”target=”_ blank”> 4月下旬の実験彼らは、研究のデータ収集段階(2024年11月から2025年3月まで)が完了した後、3月にのみUZHの研究者によって通知されたことを明らかにしました。 subredditのボットに対してルール5および非公開のaiコンテンツに対してルール5に違反しました。それにもかかわらず、研究者は論争のある正当化を提供しました:「しかし、このトピックの社会的重要性を考えると、たとえそれが規則に従わなかったとしても、この種の研究を行うことは重要だったと信じています。」
研究者の草案、
しかし、大学は研究の出版を支援し、プロジェクトを「重要な洞察をもたらし、リスク(トラウマなど)は最小限であると述べました。研究者によるさらなる侵入を劇的に奨励し、将来の非同意の人間被験者の実験に対するコミュニティの脆弱性の増加に貢献します。」コロラド大学ボルダー校の教授であるケーシー・フィーズラー博士は、これらの懸念を公に反映し、この研究を「私が今まで見た研究倫理の最悪の違反の1つ」と呼び、最小限のリスクの主張に反論しています。たとえば、OpenAIは、ライセンス取引を介して取得したCMVデータを使用して研究を実施しましたが、アクティブなsubredditユーザーを欺くことなく、制御された環境内でテストを実行しました。これは、UZHの研究者が遭遇する倫理的落とし穴を潜在的に回避する可能性のある代替アプローチを強調しています。 CMVモデレーターは、AIアカウントのコメントを透明性のために見える(ロックされていますが)透明性を残し、ユーザーが相互作用を確認できるようにし、