火曜日に発表された画期的な国際研究では、主要な AI アシスタントが信頼できるニュース情報源ではないことが明らかになり、時事問題に対する彼らの応答の 45% に重大な誤りが見つかりました。

欧州放送連合 (EBU) と BBC が調整したこの研究では、すべての主要なプラットフォームにわたって体系的な欠陥が特定されました。

調達が不十分であったことが最大の問題であり、Google のジェミニ モデルは重大な問題を示しており、パフォーマンスが最悪でした。

報告書は、報道機関が AI の歪曲または捏造された情報と誤って関連付けられることが多く、直接的な問題を引き起こすため、これらの失敗は国民の信頼を脅かすものであると警告しています。

体系的な多言語問題

14 の言語、18 か国の調査結果は、AI の現状の厳しい状況を明らかにしています。 ニュース世代。米国の NPR やカナダの CBC を含む 22 の公共サービス メディア組織が参加したこの調査は、この種の調査としては最大規模のものです。

ジャーナリストは ChatGPT、Copilot、Gemini、Perplexity からの 3,000 件を超える回答を評価し、問題が深く根付いていると結論付けました。

AI が生成したすべての回答のほぼ半数 (完全な 45%) には、少なくとも 1 つの重大な問題が含まれていました。これらの問題は、事実の不正確さから誤解を招く情報の表現まで多岐にわたりました。

EBU のメディア ディレクター、ジャン フィリップ デ テンダー氏、調査結果の重大性を強調しました。

「この調査は、これらの不具合が単独のインシデントではないことを決定的に示しています。それらはシステム的で、国境を越え、多言語に対応しており、これが国民の信頼を脅かすものであると私たちは考えています。」

これほど広範囲にわたる信頼性の低さは、問題が個別の不具合ではなく、根本的なシステム的な弱点であることを裏付けています。

調達の失敗と「儀式引用」が中核的な問題として浮上

データを掘り下げると、主な原因が調達にあることが明らかになります。驚くべきことに、全回答のうち 31% が、引用の欠落、不正確、または完全に捏造された引用の提供など、情報の帰属方法に重大な問題を抱えていました。

Google の Gemini は顕著な業績不振で、回答の 76% が重大な問題を抱えていました。

同社の調達は特に劣悪で、重大なエラー率は 72% で、競合他社の 2 倍以上でした。

アナリストの出身者 フィンランドのエール氏は、プラットフォーム間で共通する戦術について指摘した。「多くの回答には、『儀式的な引用』と呼ばれるものが含まれています。これは、徹底した研究の印象を与えるために追加された参考文献ですが、確認すると実際に述べられている主張を裏付けるものではありません。」

こうした偽の帰属表示により、ユーザーが情報を確認することはほぼ不可能になります。

事実の正確性も大きな懸念事項であり、全回答の 20% に古い事実や古い事実などの重大な誤りが含まれていました。

これらの調査結果は、AI が信頼できないという広範な業界の傾向と一致しています。これは、AI で捏造された法的引用を含むオーストラリア政府向けのデロイト報告書や、電子メールの内容を操作した Google Gmail AI 統合など、最近の注目を集めた失敗例に見られます。

評判ルーレット: AI エラーがニュース ブランドにどのようにダメージを与えるか 信頼

信頼できるニュース ブランドにとって、賭け金は特に高くなります。主要レポートと一緒に発表されたBBC/Ipsos の別の調査では、懸念すべき認識のギャップが明らかになりました。35 歳未満の人のほぼ半数が、AI アシスタントが正確な情報を提供することをすでに信頼しています。

これらの要約に欠陥があると、視聴者は AI プロバイダーと情報源として引用された報道機関の両方を非難します。

この誤った帰属は、ジャーナリズムの誠実さに対する直接的な評判の脅威を生み出します。レポートの前書きでは、「AI アシスタントは、依然としてニュースにアクセスして消費する信頼できる方法ではありません。」と率直な評価が示されています。

アシスタントが採用する自信に満ちた権威ある口調によって問題はさらに悪化しており、ユーザーを誤解させやすい可能性があります。このような行動は、AI モデルがしばしば「極度のお調子者」または不当な権威意識を示すことが判明した、以前の研究室間の安全性評価からの懸念を反映しています。

これらの体系的な問題に対応して、EBU と BBC は、安全性、精度、透明性に関するより良い基準を確立するためにテクノロジー企業との正式な対話を呼びかけています。

彼らはまた、「AI アシスタント ツールキットにおけるニュースの整合性」 は、開発者に実用的なガイダンスを提供します。

Peter Archer 氏、BBC ジェネレーティブ プログラム ディレクター AI は、「いくつかの改善はあるものの、これらのアシスタントにはまだ重大な問題があることは明らかです。私たちはこれらのツールが成功することを望んでおり、視聴者に提供するために AI 企業と協力することに前向きです。」

AI アシスタントが情報へのゲートウェイとしてますます一般的になるにつれて、その信頼性を確保することはもはや単なる技術的な課題ではなく、健全な情報を維持するための重要な要素です。 エコシステム。

Categories: IT Info