モントリオール, 2025年11月25日 /PRNewswire/ — 国際AI安全性報告書の2回目の主要アップデートが公開され、汎用AIのリスク管理と技術的緩和策に関するタイムリーなアップデートが提供されています。

チューリング賞受賞のコンピュータ科学者、Yoshua Bengio氏が議長を務める本報告書は、100名を超える国際的な専門家の協力のもと作成され、EUOECD、国連をはじめとする30か国以上および国際機関の支援を受けています。

この分野の進化があまりにも速く、年1回の報告書では対応しきれないことを踏まえ、重要な進展に焦点を当てた短期的で集中的な報告書として主要アップデートが導入されました。このアップデートは、20251015日に公開された最初の主要アップデートに続くものです。このアップデートにより、政策立案者は最新の文献を統合した情報を得て、エビデンスに基づく政策決定を行うことができるようになります。

2回の主要アップデートでは、信頼性の向上と誤用防止のための技術的な方法の概要に加え、リスク管理に対する新たな制度的アプローチについて説明します。主なポイントは次のとおりです。

  • 悪意のある攻撃に抵抗するためのモデルのトレーニングは進歩していますが、ギャップは残っていますAIモデルとシステムは攻撃への耐性が向上していますが、高度なハッカーはわずか10回の試行で約50%のケースで安全対策を破ることができ、わずか250件の悪意のあるドキュメントでトレーニング・データを汚染してモデルを侵害することができます。
  • オープンソースのギャップは縮まりつつあります。オープンウェイト・モデルは現在、業界最先端のモデルに対して1年未満の水準まで追いついており、アクセスは民主化されているものの、不具合や悪用を防ぐ取り組みは複雑になっています。
  • 業界の安全への取り組みは強化されているが、その効果は不明です。リスク管理フレームワークを採用するAI企業の数は2025年に2倍以上に増加しましたが、実際の有効性は依然として不透明です。

報告書の議長であり、Université de Montréal教授、LawZeroの科学ディレクター、Mila – Quebec AI Instituteの科学顧問を務めるYoshua Bengio氏は、次のように述べています。

AIの能力とリスクに関する最新情報を継続的に追跡するにあたり、適切かつ効果的なリスク管理と技術的な軽減策のための明確な道筋を提供することも不可欠です。この重要な最新情報では、これらの分野における進捗状況の概要と、まだ残っているギャップと機会について説明します。私たちの目標は、インドで開催されるAIインパクトサミットに先立ち、2026年初頭に公開予定の第2回国際AI安全性レポートに先立ち、世界中の意思決定者にAIの発展に関する最新情報を継続的にタイムリーに提供することです。」

国際AI安全報告書について

国際AI安全報告書は、高度なAIシステムの能力とリスクに関する証拠を総合的にまとめたものです。これは、意思決定者に根拠となる情報を提供することで、世界的に十分な情報に基づいた政策立案を支援することを目的としています。この報告書は、100人以上の独立した専門家からなる多様なグループによって執筆され、EUOECDUNなどを含む30か国以上の政府および国際機関から推薦された代表者で構成される専門家諮問委員会によって支えられています。AIの計り知れない潜在的利益を認めつつも、この報告書は、すべての人々の利益のためにAIが安全に開発・利用されることを確保するために、リスクを特定し、緩和戦略を評価することに重点を置いています。この報告書は、英国政府の委託により作成され、その事務局は英国AIセキュリティ研究所に設置されています。

問い合わせ先:Mila Mediamedias@mila.quebec; DSIT Media Enquiriespress@dsit.gov.uk

この翻訳はPRNewswireによって提供されたものです。