音声AIは「電話の自動応答」という枠を超え、私たちの仕事や生活に深く入り込む存在になりつつあります。2026年現在、世界市場は拡大を続ける一方で、大規模言語モデルと融合した自律型音声エージェントが、企業の競争力そのものを左右する段階に入っています。
特に近年は、応答の速さや自然さが人間と区別できないレベルに近づき、顧客体験や業務効率を同時に高める事例が次々と生まれています。銀行、通信、医療、介護といった分野では、すでに投資対効果が明確に示され、日本市場でも導入が加速しています。
本記事では、音声AIとIVR市場の最新動向から、低遅延技術や研究開発のブレイクスルー、日本特有の課題と成功事例、さらには倫理・規制までを体系的に整理します。AIに関心がある方が、2026年以降のトレンドを正しく理解し、次の一手を考えるための視点を得られる内容をお届けします。
音声AIとIVR市場は今どこまで成長しているのか
音声AIとIVR市場は、2026年現在、量的拡大と質的転換が同時に進行する局面に入っています。従来は電話の自動振り分けや定型応答が中心でしたが、現在は大規模言語モデルを統合した自律型音声エージェントが主流になりつつあります。**単なる自動化ツールから、業務や顧客体験を担うインテリジェントな窓口へ進化している点が最大の特徴です。**
市場規模の観点から見ると、成長は緩やかに見えて実は非常に戦略的です。国際的な市場調査によれば、世界のIVR市場は2024年に約51.5億ドル、2026年には約56.3億ドルに達すると予測されています。年平均成長率は4%台と安定的ですが、その内訳を見ると構造変化が鮮明です。特に音声AIエージェント分野は、年平均成長率が30%を大きく超えるとされ、投資と技術革新が一気に集中しています。
| 指標 | 2024年 | 2026年予測 |
|---|---|---|
| 世界IVR市場規模 | 約51.5億ドル | 約56.3億ドル |
| 世界音声AIエージェント市場 | 約24億ドル | 約42.1億ドル |
この成長を牽引しているのは業界別需要です。銀行・金融・保険分野が全体の約36%を占め、通信・IT、ヘルスケア、小売が続いています。背景には、24時間対応や本人確認の高度化、問い合わせ内容の複雑化があります。マッキンゼーなどのコンサルティングファームも、音声インターフェースがCXの中核になると指摘しており、**人が話す最も自然な手段である「声」が再評価されている**ことが市場拡大の本質です。
地域別ではアジア太平洋地域が世界シェアの約37%を占め、北米や欧州を上回っています。特に日本は労働力不足という社会課題を背景に、音声AI導入の実利が明確です。国内調査では2025年が「AIエージェント元年」と位置づけられ、コールセンターや予約受付、社内ヘルプデスクでの導入が一気に進みました。**人手不足を補う手段としてではなく、業務品質を維持・向上させる基盤技術として認識され始めています。**
さらに見逃せないのが技術スタックの成熟です。音声生成市場は年30%超で成長しており、5Gやエッジコンピューティングの普及によって応答遅延が大幅に短縮されました。学術研究の世界でも、低遅延音声処理や量子化モデルに関する論文が相次ぎ、研究成果が商用サービスに素早く転用されています。こうしたエビデンスは、音声AIとIVR市場が一過性のブームではなく、今後も持続的に拡大する土台をすでに備えていることを示しています。
自律型音声エージェントが注目される理由

自律型音声エージェントが急速に注目を集めている最大の理由は、音声AIが「便利なインターフェース」から「意思決定を担う存在」へと質的に変化した点にあります。従来のIVRや音声ボットは、あらかじめ決められた分岐に従って応答する仕組みでしたが、2026年現在は大規模言語モデルを統合することで、状況を理解し、判断し、次の行動を自律的に選択できる段階に入っています。
市場データを見ても、この変化が一過性のブームではないことが分かります。調査会社の分析によれば、世界のIVR市場が年率4%台で安定成長する一方、音声AIエージェント領域に限ると年平均成長率は30%を大きく超えています。**単なる音声認識や自動応答ではなく、業務そのものを代替・拡張できる点が、投資対象として高く評価されている**のです。
注目の背景には、企業が重視する価値の変化もあります。これまで音声AI導入の主目的はコスト削減でしたが、現在は顧客体験の質そのものを高める手段として位置づけられています。金融、通信、医療といった高い信頼性が求められる分野で採用が進んでいるのは、音声という人間的なインターフェースが、心理的な距離を縮める効果を持つためです。
| 観点 | 従来型音声システム | 自律型音声エージェント |
|---|---|---|
| 対話の性質 | 定型・分岐型 | 文脈理解・柔軟対応 |
| 役割 | 問い合わせ対応 | 判断・提案・実行支援 |
| 価値 | 効率化 | CXと生産性の同時向上 |
技術面での進化も見逃せません。音声認識、言語理解、音声合成を並列で処理するストリーミング型アーキテクチャが普及し、人が違和感を覚えないとされる300ミリ秒以内の応答が現実的になりました。国際学会や論文でも、低遅延と自律性の両立が主要テーマとして扱われており、研究と実装が強く結びついています。
さらに、日本市場特有の事情も注目度を押し上げています。慢性的な人手不足を背景に、電話対応や一次ヒアリングを音声エージェントに任せる動きが加速しています。調査機関や業界関係者の分析によれば、導入企業では業務時間の大幅削減だけでなく、現場担当者の心理的負荷が軽減されるケースも多いとされています。
**自律型音声エージェントは、人の代わりに話す存在ではなく、人と並んで考え、先回りして支える存在へと進化しています。**この役割の変化こそが、今まさに注目を集めている本質的な理由だと言えるでしょう。
低遅延・高精度を実現した音声AI技術スタックの進化
低遅延・高精度を両立した音声AI技術スタックの進化は、2026年の音声AIを語る上で最も本質的な変化の一つです。従来の音声AIは、音声認識、言語理解、音声合成を段階的に処理する構造だったため、ユーザーが話してから返答が返るまでに明確な「間」が生じていました。現在はこの構造自体が刷新され、**人間同士の会話に近い応答速度を前提とした設計思想**へと移行しています。
中核となっているのが、ストリーミング前提の並列処理アーキテクチャです。AssemblyAIなどが整理する最新スタックでは、音声入力を受けた瞬間からASR、LLM推論、TTSが同時進行で走り始めます。この結果、発話の途中で次の応答生成が開始され、体感遅延が大幅に短縮されました。自然な対話で許容される遅延は300ミリ秒以内とされますが、2026年時点ではこの水準を安定して下回る構成が現実的になっています。
技術的な最適化指標を整理すると、以下のようになります。
| 構成要素 | 2024年以前 | 2026年最適化水準 |
|---|---|---|
| 音声認識(ASR) | 100〜500ms | 100ms未満 |
| LLM推論 | 200〜2,000ms | 200ms未満 |
| 音声合成(TTS) | 200〜800ms | 200ms未満 |
| ネットワーク往復 | 50〜200ms | 30〜50ms |
この進化を支えている代表的な技術が、LLMの4-bit量子化です。arXivで報告されている研究によれば、4-bit量子化モデルは**精度を95%以上維持したまま、計算負荷を60倍以上削減**できます。これにより、従来はクラウド必須だった高度な推論が、エッジやオンプレミス環境でも低遅延で実行可能になりました。5Gとエッジコンピューティングの普及も相まって、ネットワーク遅延自体がボトルネックになりにくくなっています。
精度面でも進化は顕著です。ICASSPで注目されているGRPOのような手法では、ASRモデルを評価者として用い、音声の明瞭度と自然さを同時に最適化します。これにより、単に「速い」だけでなく、**聞き返されない音声、誤解されにくい音声**が実現されつつあります。低遅延と高精度はトレードオフではなく、同時に追求すべき品質指標へと変わりました。
結果として音声AIは、待たされる自動応答から、会話のテンポを壊さない対話パートナーへと進化しています。この技術スタックの成熟こそが、音声AIが業務の中核に組み込まれる前提条件を満たした最大の要因だといえます。
研究開発の最前線:量子化・RAG・強化学習のブレイクスルー

2026年の音声AI研究開発を語る上で、量子化、RAG、そして強化学習は避けて通れない最前線です。これらは個別の技術進化にとどまらず、実運用レベルでの精度、速度、信頼性を同時に引き上げるための中核的アプローチとして統合されつつあります。
まず量子化は、研究段階から実装フェーズへと明確に移行しました。特に4-bit量子化LLMは、arXivで公開された低遅延音声エージェント研究によれば、元モデルの95%以上の性能を維持しながら、計算複雑性を60分の1以下に削減できると報告されています。**このブレイクスルーにより、高価なGPUクラスタに依存せず、エッジやオンプレミス環境でも高度な推論が可能になりました。**
量子化は単なるコスト削減技術ではありません。推論時間の短縮は応答の自然さに直結し、人間が違和感を覚えない300ミリ秒以内の対話を現実的なものにしています。NVIDIAやGoogle Researchでも、量子化とモデル並列化を前提とした設計が標準化しつつあり、研究思想そのものが変化している点は重要です。
| 技術領域 | 研究上の焦点 | 実運用への影響 |
|---|---|---|
| 4-bit量子化 | 精度劣化の最小化 | 低遅延・省メモリ化 |
| 音声RAG | 音声ドメイン検索 | 専門知識の即時活用 |
| 強化学習 | 報酬設計の簡素化 | 自然さと明瞭度の両立 |
次にRAGの進化です。従来はテキスト変換を前提としていましたが、WavRAGやVoxRAGに代表される音声RAGは、音声を音声のまま検索・生成するSpeech-to-Speech Retrievalを実現しています。IEEEやICASSP関連の研究では、医療や法務など高い正確性が求められる分野で、誤答率を大幅に低減できる可能性が示されています。
**RAGの本質的価値は、ハルシネーション抑制にあります。**外部の信頼できる知識ソースをリアルタイムで参照することで、モデル単体では曖昧になりがちな専門情報を、文脈付きで安定して提供できるようになりました。これは単なる賢さではなく、実務で使えるかどうかを分ける決定的な差です。
そして強化学習分野では、Group Relative Policy Optimization、いわゆるGRPOが注目を集めています。Kukarellaが報じた研究では、ASRモデルを批評家として活用し、CERやNLLを組み合わせた報酬設計により、専用評価モデルを不要にしました。**これにより、学習コストを抑えつつ、人間の主観評価に近い音声品質改善が可能になっています。**
強化学習は万能ではありませんが、量子化された軽量モデルやRAGと組み合わさることで初めて実用解に近づきます。Google ResearchやMetaの論文でも、単体技術ではなくスタック全体の最適化が成果を左右すると指摘されています。研究開発の最前線は、個々の性能競争から、統合設計の巧拙を競うフェーズへと確実に移行しています。
日本語特有の壁と音声AIが直面する課題
音声AIの高度化が進む一方で、日本語は依然として大きな技術的ハードルとして立ちはだかっています。**日本語は表記体系の複雑さ、文脈依存性の高さ、社会文化と強く結びついた言語構造を併せ持つ、世界的にも難易度の高い言語**です。英語を前提に進化してきた音声AIにとって、日本語対応は単なる翻訳や音声認識精度の問題にとどまりません。
代表的な課題が同音異義語です。「はし」という一音だけでも「橋」「箸」「端」が存在し、正確な理解には前後関係や話題領域の把握が不可欠です。Googleの研究者が言及しているように、日本語音声認識では語彙単位の正解率だけでなく、**文全体の意味解釈を含めたエンドツーエンド精度**が問われます。これはLLMと音声認識を深く統合する設計でなければ克服できません。
| 日本語特有の要素 | 音声AIへの影響 | 技術的難易度 |
|---|---|---|
| 同音異義語 | 文脈推定が必須 | 非常に高い |
| 敬語体系 | 社会的関係性の理解 | 高い |
| 方言・話速差 | 学習データ不足 | 中〜高 |
特に敬語は、日本語音声AIが直面する最も本質的な壁の一つです。尊敬語・謙譲語・丁寧語は単なる言い換えではなく、話者と相手の立場、場面、意図を同時に推定する必要があります。総務省や研究機関が指摘する「文化的一致性(Cultural Alignment)」の欠如は、ユーザーに違和感や不信感を与えやすく、CXを大きく損ないます。
さらに、日本市場では品質要求が極めて高い点も見逃せません。わずかな認識ミスや不自然な間が「使えないAI」と判断されやすく、実運用での許容範囲が狭い傾向があります。AssemblyAIや学術研究でも、人間が自然と感じる応答遅延は300ミリ秒以内とされており、日本語では意味処理の負荷が増す分、低遅延設計の難易度がさらに上がります。
こうした課題に対し、近年は日本語特化データでの事前学習や、業界・用途別に最適化した音声モデルの採用が進んでいます。**日本語音声AIの競争力は、モデルの大きさではなく、日本語という言語と文化への深い理解をどこまで組み込めるかにかかっています。**この点を軽視した導入は、期待外れに終わる可能性が高いのが現実です。
日本企業における音声AI導入事例とROI
日本企業における音声AI導入は、実証段階を越えて明確なROIを伴う経営施策として定着しつつあります。背景にあるのは、労働力不足という構造問題と、日本市場特有の高品質な顧客対応要求です。特にBFSI、介護、製造、公共領域では、音声AIが人手では代替しきれなかった業務の再設計を可能にしています。
富士キメラ総研の市場調査によれば、2025年度は国内で「AIエージェント元年」と位置づけられ、音声AIを含む自律型AIの導入が一気に進みました。注目すべき点は、単なるコスト削減ではなく、業務品質の均一化や意思決定速度の向上といった定量化しにくい価値までROIとして評価され始めていることです。
| 企業・団体 | 業界 | ROIに直結した効果 |
|---|---|---|
| KDDI・NICT | 介護 | モニタリング業務時間を約7割削減 |
| 株式会社IVRy | SaaS/営業 | リード選別自動化による営業生産性向上 |
| トヨタ車体 | 製造 | 熟練技能の再現・継承コストを低減 |
| NTTデータ | 公共 | 警備業務の効率化と人的配置の最適化 |
介護分野の事例は、ROIを多面的に捉える重要性を示しています。AI音声対話ロボットを導入した施設では、職員の身体的負担が軽減され、腰痛発生率が低下しました。結果として離職率が下がり、研修時間の確保につながっています。利用者側でも転倒事故の減少が確認されており、人件費削減とケア品質向上が同時に成立している点が特徴です。
製造業では、トヨタ車体のように音声AIを用いて熟練工の判断や作業手順をデジタル化し、属人化リスクを低減する取り組みが進んでいます。これは短期的なコスト回収だけでなく、技能継承に要する長期的投資を圧縮するROIモデルといえます。経済産業省が推進するDX文脈でも、こうした暗黙知の形式知化は高く評価されています。
総じて日本企業の音声AI導入ROIは、削減額だけで測る段階を終え、時間・品質・人材定着率といった複合指標へと進化しています。高精度な日本語対応と業務フローへの深い統合を前提に、音声AIは投資対効果が説明可能な経営資産として位置づけられ始めています。
2026年の主要トレンド:プロアクティブAIと感情理解
2026年における対話型AIの最大の変化は、ユーザーの指示を待つ存在から、状況を理解し先回りして行動するプロアクティブAIへと進化した点にあります。特に音声AIの領域では、会話内容そのものだけでなく、声のトーン、話速、沈黙の長さといった非言語情報を統合的に解析し、ユーザーの感情や心理状態を推定する技術が実用段階に入りました。
調査会社Master of Codeの2026年レポートによれば、消費者の59%が「生成AIによって企業との関係性が変わる」と回答し、73%が「AIとの対話が今後さらに増える」と期待しています。これは利便性だけでなく、自分を理解してくれる存在としてAIを評価し始めていることの表れです。
| 観点 | 従来型AI | 2026年型AI |
|---|---|---|
| 対話の起点 | ユーザーの質問 | 状況や文脈の変化 |
| 感情理解 | 考慮しない | 声・履歴から推定 |
| 提供価値 | 正確な回答 | 最適な提案 |
感情理解AIの中核を成すのが、音声感情認識とLLMの融合です。声の揺らぎや抑揚からストレスや不満を検知し、応答の語調や提案内容を即座に調整します。例えばコールセンターでは、苛立ちが検知された顧客に対し、謝罪表現を増やし、選択肢を絞った案内に切り替えることで、対応時間と離脱率の双方を改善しています。
このプロアクティブ化は経済的インパクトも大きく、AIエージェントが購買判断を補助する環境では、平均コンバージョン率が20〜30%向上するとの予測も示されています。ユーザーが比較検討する前段階で、最適解を提示できるためです。
一方で重要なのは、先回りが過剰にならない設計です。総務省と経済産業省が示すAI事業者ガイドラインでも、人間中心と透明性が重視されています。感情を理解するAIだからこそ、意図や理由を説明し、ユーザーが主導権を持てる体験設計が不可欠です。
2026年のプロアクティブAIは、便利な自動化ツールではなく、人の感情に配慮しながら選択を支援するパートナーとして社会に定着し始めています。その完成度が、企業やサービスへの信頼を左右する重要な指標になりつつあります。
マルチモーダルとオムニチャネルが生む新しい体験
マルチモーダルとオムニチャネルの融合は、音声AIを単なる会話インターフェースから、体験全体を設計する中核へと押し上げています。2026年現在、音声、テキスト、画像、さらには視線やジェスチャーといった複数の入力を同時に理解し、最適なチャネルで応答することが、先進的な顧客体験の前提条件になりつつあります。
重要なのは「どのチャネルを使うか」ではなく、「利用者が意識せずに行き来できるか」です。例えば、電話で始めた問い合わせの文脈が、そのままRCSメッセージやWebチャットに引き継がれ、最終的には音声と画像を併用した案内へと自然に移行します。Master of Codeの2026年調査によれば、オムニチャネル対応を実装した企業は、顧客満足度と解決率の双方で明確な改善を示しています。
| 体験要素 | 従来型 | 2026年の進化形 |
|---|---|---|
| 入力 | 音声またはテキスト単独 | 音声・画像・テキストの同時理解 |
| チャネル | 電話やWebで分断 | 電話・RCS・Webの連続体 |
| 文脈管理 | セッションごとに断絶 | CRMと連携した継続的文脈 |
具体例として、スマートグラスを装着した利用者が店頭の商品を見ながら「これについて教えてください」と話しかけると、AIは物体認識と音声認識を同時に処理し、価格や在庫情報を音声で返しつつ、詳細スペックを視界内に表示します。Intimate Mergerの分析でも、このようなマルチモーダル体験は理解速度と意思決定の速さを高めるとされています。
オムニチャネル化がもたらす本質的価値は、CXの一貫性です。CRMネイティブな音声AIは、過去の購買履歴や感情傾向を踏まえ、チャネルが変わっても同じ「人格」で応答します。これにより、利用者は企業の窓口ではなく、信頼できるパートナーと対話している感覚を得られます。
音声AI市場がCX再定義を原動力に成長している背景には、こうした体験の質的変化があります。マルチモーダルとオムニチャネルの統合は、利便性向上にとどまらず、人とAIの関係性そのものを滑らかに再構築する基盤となっています。
音声AI時代に不可欠な倫理・ガバナンスと法規制
音声AIが社会インフラとして浸透するにつれ、倫理・ガバナンスと法規制は付随的な論点ではなく、導入成否を左右する中核要素になっています。2026年現在、企業が競うのは音声品質や応答速度だけではなく、**どれだけ信頼できる運用体制を構築しているか**という点です。とりわけ「声」は個人を強く想起させる情報であり、テキスト以上にプライバシーや人格権との距離が近いメディアだと認識されています。
日本では総務省・経済産業省が策定したAI事業者ガイドラインが実務の基準として広く参照されています。2025年3月に公開された最新版では、人間中心、公平性、透明性、アカウンタビリティという原則が明示され、音声AIにおいても例外ではありません。特に重要なのは、AIが生成した音声であることを利用者に分かる形で示す点で、これは後述する海外規制とも方向性を同じくしています。
国際的に見ると、EUのAI Actが2026年に全面施行され、生成コンテンツには明示義務が課されます。音声AIの場合、人間と誤認される自然さそのものがリスクになり得るため、**「リアルであるほど説明責任が重くなる」**という逆説が成立します。文化庁が整理するEUの著作権指令でも、権利者の意思表示を尊重する仕組みが求められており、音声データの学習利用や再生成には一層の配慮が必要です。
| 枠組み | 対象 | 音声AIへの主な影響 |
|---|---|---|
| AI事業者ガイドライン(日本) | 国内全事業者 | 生成音声の説明責任、運用体制の可視化 |
| EU AI Act | EU関連ビジネス | 生成音声の明示義務、高リスク用途の管理 |
| 米国TAKE IT DOWN Act | プラットフォーム | ディープフェイク音声の通報・削除体制 |
倫理面で近年特に注目されているのが、ハルシネーションとディープフェイクの問題です。JIPDECの消費者調査によれば、個人情報の提供に抵抗を感じる人は70.6%に達しており、不正確な音声応答やなりすましへの不安が信頼低下を招いています。音声AIでは、誤情報が「声」として伝わることで説得力を持ってしまうため、テキスト以上にリスク管理が重要です。
その対策として、多くの企業がプライバシー・バイ・デザインの考え方を採用しています。具体的には、音声データを最小限しか保存しない設計や、推論ログと個人識別情報を分離する運用です。**技術的に可能だから収集するのではなく、必要な範囲に限定する**という姿勢が、ガバナンスの評価軸になっています。
さらにUXの倫理性も見逃せません。NECの調査では、AIサービスに不誠実さを感じた経験がある消費者は82%にのぼり、その多くがダークパターン的な設計に起因しています。音声AIでも、意図的に人間オペレーターにつながりにくくする設計や、料金条件を曖昧に読み上げる行為は、短期的な効率と引き換えに長期的な信頼を失います。
専門家の間では、2026年以降の競争軸は「高性能な音声を作れるか」ではなく、**社会的に受け入れられる音声AIを継続運用できるか**に移ると指摘されています。規制遵守、倫理設計、説明可能性を組み込んだガバナンスはコストではなく、音声AI時代における最重要の投資領域になりつつあります。
専門家が語る音声AIの将来像と市場の行方
音声AIの将来像を占ううえで、専門家が共通して指摘しているのは、技術そのものよりも「市場の重心」が明確に移動し始めている点です。2026年現在、音声AIは単機能ツールの集合体ではなく、業務や生活の意思決定を支える自律型エージェントとして再定義されつつあります。市場調査によれば、従来型IVR市場が年平均4.57%で安定成長する一方、音声AIエージェント分野は34.8%という突出した成長率を示しています。
この差は、専門家が語る価値軸の変化と一致しています。ITジャーナリストの西田宗千佳氏は、2026年を「AIエージェントが実験段階を終え、業務フローに組み込まれる年」と位置づけています。重要なのは、モデルの賢さではなく、既存システムや人間の判断とどう連携し、全体を調整できるかという点です。**音声AIは“話せるAI”から“任せられるAI”へと役割を変えています。**
| 市場区分 | 2024年 | 2026年推計 |
|---|---|---|
| 世界IVR市場 | 約51.5億ドル | 約56.3億ドル |
| 音声AIエージェント市場 | 約24億ドル | 約42.1億ドル |
市場アナリストの分析でも、今後の競争軸は明確です。GoogleやMicrosoftといった大手は、単体モデルの性能ではなく、検索、CRM、業務アプリケーションと音声AIをどれだけ自然に接続できるかを重視しています。検索基盤を持つGoogleがLLM市場で優位に立つ可能性があると指摘されるのも、音声エージェントが情報取得の入口そのものになるからです。
一方で、楽観論ばかりではありません。急激な需要増により、データセンターの電力やメモリ不足が顕在化し、「投資に見合う実用性を証明できない音声AIは淘汰される」との見方も専門家の間で広がっています。**今後の市場は、話題性ではなくROIと継続利用率で評価される調整局面に入ります。**
こうした見通しの中で、音声AIの将来は二極化すると考えられています。ひとつは、大規模プラットフォームに統合され、生活や業務の基盤となる汎用エージェント。もうひとつは、医療、金融、介護など特定領域に深く最適化された専門エージェントです。専門家が口を揃えるのは、「音声AI市場の成長余地は、まだ序章にすぎない」という点であり、その行方を決めるのは技術よりも、どれだけ人間の判断を賢く支えられるかにかかっています。
参考文献
- Global Growth Insights:Interactive Voice Response (IVR) Market Size & Trends 2025-2033
- market.us:Voice AI Agents Market Size, Share | CAGR of 34.8%
- 富士キメラ総研:2025 AIエージェント市場動向調査
- AssemblyAI Blog:The voice AI stack for building agents in 2025
- arXiv:Toward Low-Latency End-to-End Voice Agents Using Streaming ASR and Quantized LLMs
- 丸文株式会社:AIとロボットが変える介護の未来:「2025年問題」を乗り越えるDX最前線
- JIPDEC:デジタル社会における消費者意識調査2025
