BBCが実施した調査により、ChatGPTやGoogleのGemini、MicrosoftのCopilot、Perplexityといった主要なAIチャットボットがニュース記事の要約において重大な問題を抱えていることが明らかになった。調査では、BBCのニュース記事100本を対象に、各AIに要約を依頼し、その結果を専門のジャーナリストが評価した。
その結果、AIが生成した要約の51%に「重大な問題」が含まれ、特に19%の要約には事実誤認や数字・日付の誤りが見られた。具体的な例として、Geminiが英国国民保健サービス(NHS)の電子タバコに関する推奨を誤って伝えたり、ChatGPTやCopilotがリシ・スナクやニコラ・スタージョンが依然として公職にあると誤って伝えたりするケースが報告された。
これらの結果は、AI技術の進化にもかかわらず、ニュース要約における信頼性の確保が依然として課題であることを示している。
BBC調査が示すAIのニュース要約の限界とその要因

AIがニュース要約において精度を欠く理由は複数存在する。まず、AIチャットボットの要約機能は、大量のデータを統計的に処理することに依存しており、文脈やニュアンスの正確な理解には限界がある。特に、複雑な政治的・経済的トピックでは、情報の取捨選択や意図の解釈が誤るケースが多い。今回のBBCの調査では、AIがリシ・スナクやニコラ・スタージョンの現職状況を誤って伝えた例が示されたが、これはAIがリアルタイムの更新情報を適切に処理できていない可能性を示唆している。
さらに、AIが情報を誤って要約する背景には、トレーニングデータの偏りもある。AIは過去の膨大なテキストデータを学習しているが、その中には誤情報や古いデータが含まれることがある。これにより、実際のニュース記事とは異なる誤った要約が生成される場合がある。例えば、BBC調査では、Perplexity AIが中東情勢に関する誤情報を含む要約を生成したことが指摘されたが、これは情報の解釈の偏りやソースの選定の問題と関係している可能性がある。
こうした問題の根底には、AIが事実を独自に検証する能力を持たない点が挙げられる。従来のジャーナリストは、情報源の信頼性を確認し、矛盾点を排除するプロセスを経るが、AIはこのような検証作業を実行できない。そのため、今後もAIがニュース要約の分野で信頼性を確立するには、人間の関与が不可欠と考えられる。
AIニュース要約の信頼性向上には何が必要か
AIが正確なニュース要約を提供するためには、いくつかの技術的・運用的な改善が求められる。まず、リアルタイムでの情報更新を可能にする仕組みの強化が必要である。現在、多くのAIは事前に学習したデータをもとに回答を生成するが、ニュースのように変化が激しい分野では、情報の鮮度が重要となる。例えば、Googleが導入を予定している「AI+人間のハイブリッドモデル」は、ニュース要約の正確性向上に貢献する可能性がある。
また、AIの学習プロセスにおいて、より厳格なファクトチェック機能を組み込むことが求められる。現在のAIは、複数の情報源を参照するが、それらの信頼性を判断する能力は限定的である。そのため、専門家による監督のもとで、AIが生成する要約の精度を評価・修正する仕組みが必要となる。これは、Appleがニュース要約機能を削除した理由とも関連しており、不完全なAI要約が市場に出るリスクを回避するためには、慎重な対応が求められる。
加えて、ユーザーがAI生成のニュース要約を利用する際の認識向上も重要である。現時点では、多くのユーザーがAIの要約をそのまま信頼しているが、BBC調査が示したように、誤情報が含まれる割合は決して低くない。したがって、AI要約には明確な「誤情報の可能性」についての注意喚起を含めることが望ましい。今後のAI活用において、技術革新だけでなく、適切な利用ガイドラインの策定も不可欠となるだろう。
ニュースメディアとAIの共存の可能性
AIのニュース要約技術に対する不信感が高まる中、メディア業界との適切な協力体制の構築が求められている。BBCは通常、AIによる記事のスクレイピングをブロックしているが、今回の調査では例外的にアクセスを許可した。この事実からも分かるように、AIとニュースメディアは必ずしも対立関係にあるわけではなく、適切な形で連携すれば、双方にとって有益な関係を築くことが可能である。
例えば、一部のメディアでは、AIを記事の要約や翻訳、データ分析に活用する動きが見られる。これにより、膨大な情報を素早く整理し、読者に効率的に提供することが可能となる。ただし、その際にはAIが生成した情報の精査を人間が行うことが前提となる。ニューヨーク・タイムズなどの大手メディアは、AI技術の導入に慎重な姿勢を示しているが、一方で一部のメディアではすでにAIの活用が進んでおり、今後の動向が注目される。
一方で、AIがジャーナリズムの本質的な価値を損なう可能性も指摘されている。AIは、情報を「要約」することには優れているが、独自の取材や背景の深掘りを行うことはできない。そのため、AI要約が一般化すればするほど、ニュースの「浅薄化」が進むリスクがある。これを防ぐためには、AIが単なる補助ツールとして機能し、最終的な判断は人間が行うという基本原則を堅持することが求められる。
AIとニュースメディアの関係は、対立ではなく共存の方向へと進む可能性がある。信頼性の高いニュースを提供するためには、AIの技術革新だけでなく、メディア側の運用ポリシーの整備や、ユーザーの情報リテラシー向上も必要となるだろう。
Source:Android Police