チューリッヒ大学(UZH)の学者は、Redditの r/changemyview p> p> p> cmv)

cmv)に密かにコメントを投稿するために、AI主導のアカウントを展開したことを確認しました。ライブオンラインフォーラムの大規模な言語モデルの説得力のある力。しかし、AIを使用してターゲットを絞った議論のために個人的なユーザーの詳細を推測し、敏感なペルソナになりすましたその方法は、フォーラムのボランティアモデレーターから強い非難を引き起こし、研究が疑いを持たないオンライン参加者を伴う研究倫理に関する議論を発表しました。 href=”https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involvinving/”target=”_ blank”> 4月下旬の実験彼らは、研究のデータ収集段階(2024年11月から2025年3月まで)が完了した後、3月にのみUZHの研究者によって通知されたことを明らかにしました。 subredditのボットに対してルール5および非公開のaiコンテンツに対してルール5に違反しました。それにもかかわらず、研究者は論争のある正当化を提供しました:「しかし、このトピックの社会的重要性を考えると、たとえそれが規則に従わなかったとしても、この種の研究を行うことは重要だったと信じています。」

研究者の草案、「aiのビューを変更できますか? AIは、GPT-4O、Claude 3.5 Sonnet、Llama 3.1 405bなどのモデルを使用していました。いくつかの返信は「一般的」でしたが、他の返信は「パーソナライズ」に関係していました。ドラフトによれば、「ポストのコンテンツに加えて、LLMには、別のLLMを使用した投稿履歴から推測されるように、LLMはOPの個人的な属性(性別、年齢、民族、場所、および政治的指向)が提供されました。」研究者は、AIが人間のベースラインの3〜6倍高い説得率を達成し、AIアカウントが10,​​000を超えるコメントカルマの蓄積を達成したため、大成功を収めました。 href=”https://www.reddit.com/user/markusruscht/”ターゲット=”_ blank”> u/markusruscht and 彼らは、ボットが「レイプの犠牲者」、「虐待に特化したトラウマカウンセラー」、「黒人の生活に反対する黒人男性」を含むユーザーを引き付けるために誤った繊細なアイデンティティを想定している不穏な事例を発見しました。モデレーターは、ユーザーの信頼の違反を強調し、「人々はAIとの意見を話し合うためにここに来ないか、実験するために」と述べました。

しかし、大学は研究の出版を支援し、プロジェクトを「重要な洞察をもたらし、リスク(トラウマなど)は最小限であると述べました。研究者によるさらなる侵入を劇的に奨励し、将来の非同意の人間被験者の実験に対するコミュニティの脆弱性の増加に貢献します。」コロラド大学ボルダー校の教授であるケーシー・フィーズラー博士は、これらの懸念を公に反映し、この研究を「私が今まで見た研究倫理の最悪の違反の1つ」と呼び、最小限のリスクの主張に反論しています。たとえば、OpenAIは、ライセンス取引を介して取得したCMVデータを使用して研究を実施しましたが、アクティブなsubredditユーザーを欺くことなく、制御された環境内でテストを実行しました。これは、UZHの研究者が遭遇する倫理的落とし穴を潜在的に回避する可能性のある代替アプローチを強調しています。 CMVモデレーターは、AIアカウントのコメントを透明性のために見える(ロックされていますが)透明性を残し、ユーザーが相互作用を確認できるようにし、