スペイン、バルセロナ、2026年3月5日 /PRNewswire/ — MWC Barcelona 2026のHuawei AI DC Innovation Forumで、HuaweiはAIエージェントの導入における主要な課題に対処し、企業のデジタルおよびインテリジェント・トランスフォーメーションのためのデータ基盤を強化するために設計されたAI Data Platformを発表しました。

AIエージェントは今、トランスフォーメーションの中心に位置づけられています。しかし、膨大な量のデータがあるにもかかわらず、知識習得の遅れや検索精度の低さ、長いシーケンスや複数ターンの対話シナリオにおける非効率的な推論、タスクの記憶や経験の蓄積の欠如など、様々な課題があるため、企業はAIエージェントを大規模にデプロイするのに苦慮しています。このようなギャップにより、ほとんどのAIエージェントはデモ段階にとどまっており、生産レベルのエンタープライズ・アプリケーションには程遠いのが現状です。

Xie Liming, the President of the Flash Storage Domain of the Huawei Data Storage Product Line, launches the AI Data Platform
Xie Liming, the President of the Flash Storage Domain of the Huawei Data Storage Product Line, launches the AI Data Platform

こうした共通の課題に直接応えるため、Huaweiのデータ・ストレージ製品ラインのフラッシュ・ストレージ・ドメイン担当プレジデントであるXie Limingは、AIデータ・プラットフォームを発表しました。本プラットフォームは知識ベース、KVキャッシュ、メモリーバンクを統合し、UCMによって調整されます。本プラットフォームにより、エンタープライズAIエージェントはデモンストレーションの枠を超え、実際の生産ツールとなることができます。

  • エージェント向けのリアルタイムで高精度なマルチモーダル知識検索による知識の生成と検索

 この技術により、知識ベースを使ってソースデータの変化を継続的に検出し、生データをほぼリアルタイムで知識に変換することができます。マルチモーダル・ロスレス・パーシングとトークン・レベル・エンコードにより、マルチモーダルデータを検索精度95%以上を誇る高精度の知識に変換します。

  • KVキャッシュによる推論アクセラレーション、履歴メモリデータを使用してエージェントの推論効率を向上

 KVキャッシュのインテリジェントな階層化と管理により、推論中の繰り返し計算を大幅に削減して推論レイテンシを低減し、推論スループットとユーザー体験を向上させ、長いシーケンスと複雑なエージェント推論を強力にサポートします。

  • エージェント用にパーソナライズされ、継続的に要約されたメモリによる、メモリの抽出および想起

 この技術は、AIエージェントとの対話中に、ワーキングメモリと経験記憶を蓄積するためにメモリバンクを使用します。メモリバックトラックとマルチエージェント協調学習をサポートし、推論の精度と効率を継続的に最適化することで、使えば使うほどモデルが賢くなります。

Huaweiは今後、AIデータインフラへの投資を強化し、継続的なイノベーションを通じて業界のトランスフォーメーションを後押しし、グローバルな顧客やパートナーと協力して、より多くの分野でより広範なAIの採用を推進し、データの可能性を最大限に引き出していきます。