世界各国のリアルタイムなデータ・インテリジェンスで皆様をお手伝い

責任あるAI(RAI)/説明可能なAI(XAI)/解釈可能なAI/信頼できるAI(FATE)白書2026年版

責任あるAI(RAI)/説明可能なAI(XAI)/解釈可能なAI/信頼できるAI(FATE)白書2026年版


■ キーメッセージ 責任あるAI(RAI)、説明可能なAI(XAI)、解釈可能なAI、信頼できるAI(FATE)の統合的な理解が、AI技術の社会実装における競争優位の源泉となる。本白書は、2026年における最新の市場動... もっと見る

 

 

出版年月
2025年11月26日
電子版価格
納期
ハードコピー、PDF(CD-ROM) ともに 通常4-5営業日程度
ページ数
930
言語
日本語

※税別価格:製本版150,000円/ 電子ファイル118,000円。製本版と電子ファイルをセットにした「コーポレートセット」もございます。価格の詳細はお問合せ下さい。※※製本とPDF版では編集上の違いによりページ数が若干異なります。


 

サマリー

■ キーメッセージ
責任あるAI(RAI)、説明可能なAI(XAI)、解釈可能なAI、信頼できるAI(FATE)の統合的な理解が、AI技術の社会実装における競争優位の源泉となる。本白書は、2026年における最新の市場動向、技術体系、実装戦略、規制対応を包括的に分析し、AIガバナンス市場の爆発的成長(2024年2億2,760万ドルから2030年14億1,830万ドル、CAGR 35.7%)と、オブザーバビリティーを基盤とした実践的フレームワークを明示している。

グローバルな規制強化(EU AI Act、米国行政命令)と企業における倫理的AI導入の加速を背景に、AI統治プラットフォーム、説明可能性技術、安全性評価手法、レジリエンス・マネジメントの最前線を詳述し、生成AI・LLMが抱える幻覚、バイアス、プライバシー侵害などの具体的リスクとその対策を技術・規制・実装の三層で提示する。

■ 利用シーン

本白書は、以下の業務シーンにおいて戦略的価値を提供する。

▼市場参入・投資判断
AIガバナンス市場の地域別成長予測(北米40%、欧州25%、アジア太平洋CAGR 8%)、技術セグメント別分析(ソフトウェアソリューション66.7%)、業界別採用動向(BFSI、ヘルスケア、政府・防衛)を活用し、投資ポートフォリオの最適化とM&A戦略の立案が可能である。ベンチャーキャピタル投資動向(2024年1,000億ドル超、生成AI分野450億ドル)と主要プレイヤー分析により、スタートアップ評価と協業先選定を支援する。

▼技術戦略の策定
XAI技術(SHAP、LIME、DeepLIFT)、オブザーバビリティーの三本柱(メトリクス、ログ、トレース)、AIレジリエンス・マネジメント、ロバスト機械学習の実装アーキテクチャを参照し、自社のAI開発ロードマップを構築できる。説明可能性と性能のトレードオフ、解釈可能性向上手法(機械論的解釈可能性、自動解釈可能性、脳スキャン技術)の理解により、技術選択の意思決定を高度化する。

▼規制対応・コンプライアンス
EU AI Act、米国州法、中国・日本の法制化動向、ISO 42001、NIST AI RMFなど国際標準化の最新状況を把握し、各地域市場における製品・サービスの適法性を確保する。AI監査・検証フレームワーク、倫理的AI設計原則、安全性評価手法(第4世代AI指標、多層的ガバナンス)により、監査対応とリスク管理体制を整備できる。

▼実装・運用の最適化
金融、ヘルスケア、製造業、小売、政府部門における具体的実装事例とベストプラクティスを参照し、業界特有の課題(データドリフト、コンセプトドリフト、モデルドリフト検出)への対処法を学習できる。責任あるAI導入のツールキット(TensorFlow Privacy、Microsoft Responsible AI Toolbox、AI Fairness 360)とプラットフォーム(Claude3.5、SAP SE、ESSA)の比較により、技術スタック選定を効率化する。

▼生成AI・LLMリスク管理
幻覚、バイアス、偽情報、著作権侵害、脱獄攻撃、データ汚染、プロンプトインジェクションなど、LLMに内在する12の主要リスクとその軽減策(RAG、Self-RAG、アライメント技術、RLHF)を体系的に理解し、生成AI活用プロジェクトの安全性を担保できる。事実性評価ベンチマーク(FELM、WorldBench、SummHay)とLLM-as-a-judge手法により、モデル品質評価を標準化する。

■ アクションプラン/提言骨子

▼短期施策(3~6ヶ月)

• AIガバナンス体制の構築:経営層を含むAI倫理委員会の設置、リスク評価チェックシートの導入、定期監査プロセスの確立
• 説明可能性技術の試験導入:SHAP、LIMEなどのXAI手法を既存AIモデルに適用し、透明性を定量評価
• オブザーバビリティー基盤の整備:メトリクス・ログ・トレースの計測インフラを構築し、AIモデルのリアルタイム監視を開始
• 規制対応ギャップ分析:EU AI Act、米国行政命令、業界標準(ISO 42001、NIST AI RMF)との適合性を評価し、優先対応項目を特定
• 人材育成プログラムの開始:技術者・ビジネス部門双方を対象としたAI倫理・ガバナンスリテラシー研修の実施

▼中期施策(6~12ヶ月)

• 業界別実装戦略の展開:金融(不正検知、信用評価)、ヘルスケア(診断支援、患者予後予測)、製造(品質検査、予知保全)など、自社業界特有の責任あるAI実装パターンを確立
• バイアス検出・軽減システムの導入:AI Fairness 360、Fairleadなどのツールを活用し、学習データおよびモデル出力のバイアス監査を自動化
• 生成AI・LLMリスク対策の強化:RAG(検索拡張生成)、Self-RAG(自己反省型RAG)、幻覚検出ソリューション(Haize Labs Sphynx)の実装により、LLM活用の信頼性を向上
• AIレジリエンス・マネジメントの高度化:敵対的攻撃対策(敵対的訓練、認証防御)、ロバスト機械学習技術の段階的導入により、AIシステムの堅牢性を強化
• ステークホルダーエンゲージメント:顧客、規制当局、業界団体との継続的対話を通じた、責任あるAI実践の社会的受容性向上

▼長期施策(12ヶ月以降)

• AIガバナンス成熟度モデルの確立:段階的な成熟度評価フレームワーク(レベル1:初期対応 → レベル5:最適化)に基づく、継続的改善プロセスの定着
• 国際標準対応の完全化:ISO 42001認証取得、NIST AI RMF完全準拠、地域別規制(EU、米国、アジア太平洋)への包括的対応
• AI駆動型オブザーバビリティーの実現:AI自身によるAIシステム監視・最適化の自動化、異常検知精度の向上
• エコシステム連携の強化:AIアライアンス、Generative AI Japanなど業界団体への参画、産学連携による先端研究成果の早期実装
• 競争優位の確立:責任あるAI実践を企業ブランド・顧客信頼の源泉とし、持続可能な成長基盤を構築


本白書は、AI技術の健全な社会実装を推進し、イノベーションと責任のバランスを実現するための実践的羅針盤として機能する。

 

監修・発行: 一般社団法人 次世代社会システム研究開発機構



ページTOPに戻る


目次

Responsible AI (RAI) Explainable AI (XAI) Interpretable AI Trustworthy AI (FATE) 

緒言

【 AIガバナンス概説・市場 】

1 AIガバナンスの市場分析と投資動向

  • 1.1 エグゼクティブサマリー
  • 1.2 市場規模と成長予測
  • 1.3 市場の主要動向
  • 1.4 投資動向と資金調達の現状
  • 1.5 投資ファンドの動向
  • 1.6 技術セグメント別分析
  • 1.7 業界別採用動向
  • 1.8 アジア太平洋地域の特別分析
  • 1.9 今後の市場展開予測
  • 1.10 小括

2 AIガバナンスとAIバイアス(検出・軽減策)概説

  • 2.1 事業環境の概要
  • 2.2 事業特性と注目トピック
  • 2.3 先端技術動向
  • 2.4 適用ツール/モデル/プロダクト
  • 2.5 外部ツールとの連携
  • 2.6 標準化動向
  • 2.7 市場でのプレゼンス
  • 2.8 実装・応用事例
  • 2.9 主な課題点
  • 2.10 関与企業・団体一覧
  • 2.11 企業動向と競合分析
  • 2.12 スタートアップ事例
  • 2.13 学術研究トピック
  • 2.14 規制・標準化展望
  • 2.15 研究・実装課題
  • 2.16 まとめと展望

3 責任あるAI 概説

  • 3.1 概念の定義・背景
  • 3.2 責任あるAI(RAI)の重要性
  • 3.3 責任あるAI・説明可能なAIで対象とする範囲
  • 3.4 責任あるAIと呼ばれるガバナンスパラダイム
  • 3.5 「責任あるAI」に関する意識調査

4 AIの解釈可能性 概説

  • 4.1 概説・定義
  • 4.2 解釈可能性の分類
  • 4.3 解釈可能性を高める技術
  • 4.4 まとめ

5 AIガバナンス・プラットフォームと倫理的AI

  • 5.1 AIガバナンスの重要性と現状
  • 5.2 事業環境と市場規模の分析
  • 5.3 事業特性と技術的特徴
  • 5.4 注目すべきトピックと最新動向
  • 5.5 倫理的AI実装の実践と課題
  • 5.6 先端技術動向とAIとの関連
  • 5.7 専門家の見解と課題分析
  • 5.8 統計データに基づく現状分析
  • 5.9 今後の展望と提言
  • 5.10 小括

【 AIオブザーバビリティーの概念・体系・対策 】

6 AIオブザーバビリティー概説

  • 6.1 概要
  • 6.2 オブザーバビリティーの3本の柱
  • 6.3 オブザーバビリティーと監視の主要な違い
  • 6.4 オブザーバビリティーの成熟度レベル
  • 6.5 オブザーバビリティーのベストプラクティス
  • 6.6 オブザーバビリティーの実装における課題
  • 6.7 小括

7 責任あるAIにおけるオブザーバビリティーの適用

  • 7.1 オブザーバビリティーの責任あるAIにおける位置づけ
  • 7.2 オブザーバビリティーがRAIで果たす役割
  • 7.2.1 透明性と説明可能性の実現
  • 7.2.2 バイアスと公平性の監査機能
  • 7.2.3 モデルドリフトとパフォーマンス劣化の検出
  • 7.2.4 継続的監視とアラート体制
  • 7.3 現在の認知状況と検討状況
  • 7.3.1 グローバルな導入状況
  • 7.3.2 成熟度モデルの発展
  • 7.3.3 地域別の認知度差異
  • 7.4 規制とフレームワークへの対応
  • 7.4.1 EU AI Actとオブザーバビリティー
  • 7.4.2 NIST AI RMFとISO 42001の統合
  • 7.4.3 日本のアプローチ
  • 7.5 事例とベストプラクティス
  • 7.5.1 金融業界の取り組み
  • 7.5.2 ヘルスケア分野の実装
  • 7.5.3 コンタクトセンターにおける応用
  • 7.5.4 H&Mの責任あるAIフレームワーク
  • 7.5.5 メリーランド州の政策実装
  • 7.6 今後の展望と課題
  • 7.6.1 データ観測可能性の重要性
  • 7.6.2 APIとAIの統合監視
  • 7.6.3 ツールとプラットフォームの選択

8 説明可能なAIにおけるオブザーバビリティーの役割

  • 8.1 オブザーバビリティーとXAIの相互関係
  • 8.2 XAIにおけるオブザーバビリティーの位置づけ
  • 8.2.1 透明性と解釈可能性の実現基盤
  • 8.2.2 ブラックボックス問題への対応
  • 8.2.3 モニタリングと説明可能性の統合
  • 8.3 オブザーバビリティーがXAIで果たす役割
  • 8.3.1 根本原因分析の促進
  • 8.3.2 リアルタイム追跡と監視
  • 8.3.3 モデルライフサイクル全体での活用
  • 8.4 主要なXAI技術とオブザーバビリティーの統合
  • 8.4.1 SHAP(Shapley Additive exPlanations)
  • 8.4.2 LIME(Local Interpretable Model-agnostic Explanations)
  • 8.4.3 SHAPとLIMEの組み合わせ活用
  • 8.5 実装における検討状況
  • 8.5.1 観測可能性設計の原則
  • 8.5.2 オープンスタンダードの採用
  • 8.5.3 AI駆動型オブザーバビリティーパイプライン
  • 8.6 分野別の実装事例
  • 8.6.1 金融サービスにおける展開
  • 8.6.2 ヘルスケアシステムでの活用
  • 8.6.3 自律システムにおける適用
  • 8.6.4 小売分析とコンタクトセンター
  • 8.7 今後の展望と課題
  • 8.7.1 計算コストとスケーラビリティ
  • 8.7.2 パフォーマンスと説明可能性のトレードオフ
  • 8.7.3 ドメイン固有の監視とカスタマイゼーション
  • 8.7.4 倫理とプライバシーの保護

9 解釈可能なAIにおけるオブザーバビリティーの役割

  • 9.1 解釈可能性とオブザーバビリティーの概念的関係
  • 9.2 解釈可能なAIにおけるオブザーバビリティーの位置づけ
  • 9.2.1 内在的解釈可能性とオブザーバビリティーの統合
  • 9.2.2 グラスボックスモデルの可視性強化
  • 9.2.3 モニタリングと解釈可能性の相補関係
  • 9.3 オブザーバビリティーが解釈可能なAIで果たす役割
  • 9.3.1 モデルライフサイクル全体での透明性維持
  • 9.3.2 リアルタイム異常検出と根本原因分析
  • 9.3.3 規制コンプライアンスと監査証跡の確保
  • 9.4 主要技術と実装パターン
  • 9.4.1 意思決定木とルールベースシステム
  • 9.4.2 多層オブザーバビリティーアーキテクチャ
  • 9.4.3 スナップショットベースモデリング
  • 9.5 実装における検討状況
  • 9.5.1 ヘルスケア分野での統合と受容
  • 9.5.2 金融サービスにおけるモニタリング実装
  • 9.5.3 産業プロセス監視とスマート農業
  • 9.5.4 インシデント管理とマルチエージェントシステム
  • 9.6 今後の展望と課題
  • 9.6.1 パフォーマンスと解釈可能性のトレードオフ
  • 9.6.2 スケーラビリティと計算コストの最適化
  • 9.6.3 ドメイン固有のカスタマイゼーションとツール選択
  • 9.6.4 倫理的配慮とプライバシー保護
  • 9.6.5 継続的改善とフィードバックループ

10 信頼できるAIにおけるオブザーバビリティーの基盤的役割

  • 10.1 信頼できるAIとFATEフレームワークの概要
  • 10.2 FATEにおけるオブザーバビリティーの位置づけ
  • 10.2.1 公平性の実現と継続的監視
  • 10.2.2 説明責任の確立と監査証跡
  • 10.2.3 透明性の維持と説明可能性の提供
  • 10.2.4 倫理的AIの運用化と価値整合
  • 10.3 オブザーバビリティーが信頼できるAIで果たす役割
  • 10.3.1 リアルタイムパフォーマンス監視と品質保証
  • 10.3.2 データドリフトとコンセプトドリフトの検出
  • 10.3.3 リスク管理とコンプライアンスの統合
  • 10.4 現在の検討状況と成熟度
  • 10.4.1 グローバルな採用動向とギャップ
  • 10.4.2 成熟度モデルとベストプラクティス
  • 10.4.3 規制対応とフレームワーク整合
  • 10.5 分野別の実装事例
  • 10.5.1 医療分野における信頼構築
  • 10.5.2 金融サービスにおけるコンプライアンス強化
  • 10.5.3 エンタープライズAIガバナンスの実装
  • 10.5.4 トラストスコアとモデル評価フレームワーク
  • 10.6 今後の展望と課題
  • 10.6.1 非構造化データとマルチモーダルAIへの対応
  • 10.6.2 AI駆動型オブザーバビリティーの進化
  • 10.6.3 スキルギャップと組織的課題
  • 10.6.4 イノベーションとガバナンスのバランス

【 責任あるAIの概念・体系・対策 】

11 責任あるAI導入のためのベストプラクティス

  • 11.1 概説
  • 11.2 厳格責任と過失責任
  • 11.3 真実性、事実性、事実誤認の識別に対処するための手法
  • 11.4 AIモデルのアライメントと頑健性を向上させる方法

12 説明責任枠組み不足と対策

  • 12.1 概要・導入形態
  • 12.1.1 組織・文化面の導入
  • 12.1.2 プロセス・技術面の導入
  • 12.2 ツールやモデル別特性
  • 12.2.1 主なツール・プラットフォーム
  • 12.2.2 モデルタイプ別の特性
  • 12.3 先端機能
  • 12.4 実装・運用の留意点
  • 12.5 外部連携とパートナーシップ
  • 12.6 評価方法とベンチマーク
  • 12.7 最新動向
  • 12.8 関与する主要企業

【 説明可能AIの概念・体系・対策 】

13 説明可能AI(XAI)の国際標準動向

  • 13.1 XAI技術の進展と市場導入
  • 13.2 産業実装例
  • 13.3 国際会議・標準化
  • 13.4 技術的・社会的課題
  • 13.5 社会的合意形成

14 透明性向上・説明可能AI アーキテクチャ[1]

  • 14.1 事業環境の概要
  • 14.2 事業特性
  • 14.3 注目トピック
  • 14.4 XAI手法の分類
  • 14.5 先端アーキテクチャ
  • 14.6 適用されるツール/モデル/プロダクト
  • 14.7 外部ツールとの連携
  • 14.8 標準化動向
  • 14.9 市場でのプレゼンス
  • 14.10 実装および応用事例
  • 14.11 関与企業・団体・スタートアップ

15 透明性向上・説明可能AI アーキテクチャ[2]

  • 15.1 実装技術詳細
  • 15.2 先端研究動向
  • 15.3 実世界適用事例
  • 15.4 課題と今後の展望

16 説明可能AI(XAI)の実装と評価

  • 16.1 XAIの事業可能性・市場動向
  • 16.2 XAIの評価指標とベストプラクティス

1 説明可能性(XAI)の実装障壁

  • 1.1 概要
  • 1.2 導入形態
  • 1.3 ツール・モデル別特性
  • 1.4 先端機能
  • 1.5 実装・運用上の留意点
  • 1.6 外部連携とパートナーシップ
  • 1.7 評価
  • 1.8 最新動向
  • 1.9 関与する主要企業

17 説明可能AI(XAI)の事業環境

  • 17.1 概況
  • 17.2 事業特性
  • 17.3 注目すべきトピック
  • 17.4 先端技術動向
  • 17.5 外部ツールとの連携
  • 17.6 標準化動向
  • 17.7 市場でのプレゼンス
  • 17.8 実装および応用事例
  • 17.9 課題点
  • 17.10 関与している企業・団体
  • 17.11 詳細応用事例とソリューション比較
  • 17.12 技術革新と最新動向
  • 17.13 市場動向と競争環境
  • 17.14 投資動向とスタートアップエコシステム
  • 17.15 人材育成と産学連携
  • 17.16 技術標準化と規制動向
  • 17.17 将来展望と2030年ビジョン

18 説明可能AI(XAI)の実用化

  • 18.1 序:説明可能AIの概念と重要性
  • 18.2 市場環境と事業特性
  • 18.3 先端技術動向と主要手法
  • 18.4 主要なXAI技術
  • 18.5 業界別適用事例と実装状況
  • 18.6 プロダクトとツールの実装状況
  • 18.7 外部ツールとの連携
  • 18.8 課題と限界
  • 18.9 今後の展望と発展方向性
  • 18.10 小括

19 説明可能AI(XAI)の実用化市場:包括的市場分析

  • 19.1 エグゼクティブサマリー
  • 19.2 市場規模と統計データ
  • 19.3 市場動向と成長要因
  • 19.4 投資動向と資金調達環境
  • 19.5 主要企業とプレイヤー分析
  • 19.6 規制環境と政策動向
  • 19.7 今後の市場展開予測(2025-2030)
  • 19.8 技術革新の方向性
  • 19.9 産業別成長見通し
  • 19.10 投資機会と課題
  • 19.11 市場課題
  • 19.12 小括

20 説明可能AI(XAI)の実用化

  • 20.1 主要企業の動向と実装事例
  • 20.2 研究機関・大学の取り組み
  • 20.3 業界団体と標準化活動
  • 20.4 スタートアップ企業の動向
  • 20.5 実装事例と応用分野
  • 20.6 市場動向と将来展望
  • 20.7 規制環境と政策動向
  • 20.8 小括

【 AI解釈可能性の概念・体系・対策 】

21 AIの解釈可能性:AI時代における透明性と信頼の鍵

  • 21.1 概要
  • 21.2 解釈可能性と説明可能性の区別
  • 21.3 解釈可能性のアプローチ分類
  • 21.4 モデル専用と汎用アプローチ
  • 21.5 代表的な解釈手法と技術
  • 21.6 AIの解釈可能性の応用分野
  • 21.7 解釈可能性の課題と将来展望
  • 21.8 小括

22 AIのメカニズム的解釈可能性(機械論的解釈可能性)

  • 22.1 はじめに
  • 22.2 機械論的解釈可能性の定義と目的
  • 22.3 基本概念とフレームワーク
  • 22.4 主要研究領域とアプローチ
  • 22.5 機械論的解釈可能性とAI安全性
  • 22.6 課題と将来の展望
  • 22.7 小括

23 AIの解釈可能性の有用性に関する包括的解説

  • 23.1 はじめに
  • 23.2 解釈可能性と説明可能性の概念
  • 23.3 解釈可能性が求められる背景
  • 23.4 主要な解釈可能性向上手法
  • 23.5 産業別の解釈可能性の有用性
  • 23.6 解釈可能性がもたらす信頼性向上
  • 23.7 バイアス検出と公平性確保
  • 23.8 規制対応と法的要件
  • 23.9 解釈可能性実現の課題
  • 23.10 小括

24 AIの自動解釈可能性:機械学習モデルの透明性を高める技術

  • 24.1 はじめに
  • 24.2 AIの解釈可能性と説明可能性の基本概念
  • 24.3 自動解釈可能性の必要性と意義
  • 24.4 自動解釈可能性の技術と手法
  • 24.5 AutoXAI:自動説明可能AIフレームワーク
  • 24.6 AutoSHAP:自動SHAP値計算フレームワーク
  • 24.7 AutoMLと自動解釈可能性の統合
  • 24.8 応用例と実際の利用シーン
  • 24.9 今後の発展方向
  • 24.10 小括

25 AIの解釈可能性における脳スキャン:深層ニューラルネットワークを解読する

  • 25.1 はじめに
  • 25.2 AIモデルの解釈可能性と脳科学の交差点
  • 25.3 脳スキャン技術とAIモデル評価
  • 25.4 表現類似性分析:脳とAIの橋渡し
  • 25.5 医療画像診断におけるXAIの応用
  • 25.6 AIモデルの「脳スキャン」:メカニズム的解釈可能性への挑戦
  • 25.7 ニューラルネットワークと脳の比較研究
  • 25.8 課題と将来の展望
  • 25.9 小括

26 AIの解釈可能性とモデル知能のトレードオフ:共存か競争か

  • 26.1 はじめに
  • 26.2 AIの解釈可能性の概要・構成要素
  • 26.3 AIモデルの多面的再定義
  • 26.4 解釈可能性と知能のトレードオフ関係
  • 26.5 XAIの主な手法
  • 26.6 XAIツール
  • 26.7 実世界での応用事例
  • 26.8 解釈可能性と知能のバランスにおける課題
  • 26.9 将来の展望:解釈可能性と知能の共存
  • 26.10 小括

【 AI監査の概念・体系・対策 】

27 AI監査・検証フレームワーク

  • 27.1 事業環境
  • 27.2 事業特性
  • 27.3 注目トピック
  • 27.4 先端技術動向
  • 27.5 適用されるツール/モデル/プロダクト
  • 27.6 外部ツールとの連携
  • 27.7 標準化動向
  • 27.8 市場でのプレゼンス
  • 27.9 実装事例・応用ユースケース
  • 27.10 AI監査の主要課題
  • 27.11 関与企業・団体
  • 27.12 スタートアップ動向
  • 27.13 今後の展望

【 倫理的AIの概念・体系・対策 】

28 倫理的AI設計原則

  • 28.1 事業環境と事業特性
  • 28.2 注目トピック
  • 28.3 各種先端技術動向
  • 28.4 適用されるツール/モデル/プロダクト
  • 28.5 外部ツールとの連携
  • 28.6 標準化動向
  • 28.7 市場でのプレゼンス
  • 28.8 課題点
  • 28.9 倫理的AI実装フレームワーク
  • 28.10 国内外最新動向比較
  • 28.11 注目スタートアップ・事例深掘り
  • 28.12 実務導入のステップ
  • 28.13 将来展望と課題

【 AI安全性評価の概念・体系・対策 】

29 AI安全性評価手法[1]

  • 29.1 事業環境および市場概況
  • 29.2 事業特性と技術的課題
  • 29.3 注目すべき技術動向とツール
  • 29.4 標準化動向と国際連携
  • 29.5 市場でのプレゼンスと競争環境
  • 29.6 実装および応用事例
  • 29.7 技術的課題の深掘り
  • 29.8 関与する研究機関・大学
  • 29.9 スタートアップ動向
  • 29.10 将来展望
  • 29.11 規制・ガバナンス動向
  • 29.12 ビジネスインパクト分析
  • 29.13 各国比較
  • 29.14 小括と将来展望

30 AI安全性評価手法[2]

  • 30.1 モデル標準化技術
  • 30.2 業種別詳細ケーススタディ
  • 30.3 AI安全性評価のコスト効果分析
  • 30.4 小括と今後の展望
  • 30.5 AI安全性認証スキーム設計
  • 30.6 産業別AI安全投資ROI分析
  • 30.7 国際連携強化策
  • 30.8 業種別ケーススタディの深化
  • 30.9 コスト最適化手法
  • 30.10 認証運用のベストプラクティス
  • 30.11 今後の課題と展望

31 最新のAI安全性評価ツール・プラットフォーム

  • 31.1 マルチLLM評価環境とリスク管理
  • 31.2 エージェントSDKとトレーシング
  • 31.3 Gemini 1.5の長文・マルチモーダル評価
  • 31.4 API・外部ツール連携の進化

32 安全性評価指標の進化と多層的ガバナンス

  • 32.1 第4世代AIと「信頼されるAI」指標
  • 32.2 産業界・学術界の協力体制
  • 32.3 今後の展望と課題

33 AIロボティクス:ロボット材料統合とAI安全性評価の最前線

  • 33.1 ロボット材料統合の事業・技術動向
  • 33.2 ロボット材料統合の評価指標と外部ツール連携
  • 33.3 AIによる異常検知・最適化
  • 33.4 外部ツール連携

34 ナノロボティクスと医療AI安全性評価

  • 34.1 ナノロボティクスの医療応用とAI評価
  • 34.2 ナノロボティクスと外部連携・規制

35 先端医療分野のAI安全性評価事例

  • 35.1 画像診断AIの評価と標準化
  • 35.2 セキュリティスキャナーAIの評価

36 人間-AI協働・アディティブマニュファクチャリングとの統合

  • 36.1 産業横断的ベンチマークと評価指標の進化
  • 36.2 ナノロボティクス分野の規制・標準化

37 AI安全性評価における投資・市場展望

  • 37.1 規制強化とコスト構造の変化
  • 37.2 投資・競争環境
  • 37.3 日本の政策・産業振興
  • 37.4 今後の展望とまとめ

38 AI安全性評価 実装ガイドラインの要点

  • 38.1 多層的評価フローの設計
  • 38.2 外部ツール・API連携の実践
  • 38.3 評価指標とベンチマークの選定

39 産業界・学術界連携の深化

  • 39.1 共同研究・評価基盤の共創
  • 39.2 人間-AI協働の最適化

40 最新技術・市場トレンド

  • 40.1 LLM時代のセキュリティリスクと評価
  • 40.2 ロボット材料統合・ナノロボティクス・アディティブマニュファクチャリング
  • 40.3 説明可能AI(XAI)の社会実装と評価

41 投資家・事業者向け戦略的示唆

  • 41.1 投資機会の拡大分野
  • 41.2 リスク・ガバナンス強化
  • 41.3 技術・人材戦略
  • 41.4 今後の展望とまとめ

【 AI・機械学習レジリエンス/ロバストなAI・機械学習の概念・体系・対策 】

2 AIレジリエンス・マネジメント[1]

  • 2.1 事業環境
  • 2.2 事業特性
  • 2.3 注目すべきトピック
  • 2.4 先端技術動向
  • 2.5 適用されるツール/モデル/プロダクト
  • 2.6 外部ツールとの連携
  • 2.7 標準化動向
  • 2.8 市場でのプレゼンス
  • 2.9 実装および応用事例
  • 2.10 課題点
  • 2.11 関与企業・団体・スタートアップ

3 AIレジリエンス・マネジメント[2]

  • 3.1 実装アーキテクチャ事例
  • 3.2 成功要因分析
  • 3.3 AIレジリエンス成熟度モデル
  • 3.4 導入ロードマップ
  • 3.5 今後の展望

42 ロバスト機械学習[1]

  • 42.1 事業環境
  • 42.2 事業特性
  • 42.3 注目すべきトピック
  • 42.4 先端技術動向
  • 42.5 適用されるツール/モデル/プロダクト
  • 42.6 外部ツールとの連携
  • 42.7 標準化動向
  • 42.8 市場でのプレゼンス
  • 42.9 実装および応用事例
  • 42.10 課題点
  • 42.11 関与企業・団体・スタートアップ

43 ロバスト機械学習[2]

  • 43.1 敵対的攻撃とその形式化
  • 43.2 先端防御技術
  • 43.3 プライバシー保護とメンバーシップ推測防御
  • 43.4 システムレベルのセキュリティ対策とMLOps
  • 43.5 実装および応用事例の深化
  • 43.6 実践的脅威モデルの再考
  • 43.7 今後の展望と研究課題
  • 43.8 敵対的攻術の高度化と動向

44 ロバスト機械学習[3]

  • 44.1 新興の攻撃領域
  • 44.2 最新の防御技術
  • 44.3 システムレベルの統合とMLOps
  • 44.4 実装事例と効果検証
  • 44.5 課題と展望
  • 44.6 関与主体とエコシステム動向

45 ロバスト機械学習[4]

  • 45.1 モデル解釈性(Explainability)強化
  • 45.2 エッジ/IoT環境での防御技術
  • 45.3 AIガバナンス統制とサプライチェーンセキュリティ
  • 45.4 実運用に向けた統合的MLOps

46 ロバスト機械学習[5]

  • 46.1 金融分野:不正検知へのロバストML適用
  • 46.2 ヘルスケア分野:医用画像解析へのロバストML適用
  • 46.3 製造業分野:品質検査へのロバストML適用
  • 46.4 総括と今後の展望

【 AI透明性向上の概念・体系・対策 】

47 AI透明性向上技術[1]

  • 47.1 事業環境
  • 47.2 事業特性
  • 47.3 注目すべきトピック
  • 47.4 先端技術動向
  • 47.5 適用されるツール/モデル/プロダクト
  • 47.6 外部ツールとの連携
  • 47.7 標準化動向
  • 47.8 市場でのプレゼンス
  • 47.9 実装および応用事例
  • 47.10 課題点
  • 47.11 関与企業・団体
  • 47.12 スタートアップ

48 AI透明性向上技術[2]

  • 48.1 国内外政策・規制動向の詳細
  • 48.2 先端研究動向の深掘り
  • 48.3 先端ツール・モデル開発動向
  • 48.4 応用事例詳細
  • 48.5 標準化・評価指標動向
  • 48.6 課題・今後の展望
  • 48.7 関与企業・研究機関・スタートアップ

【 生成AI・大規模言語モデル(LLM)が抱えるリスク対策<1> 】

49 生成AI・大規模言語モデル(LLM)が抱えるリスクと規制

  • 49.1 言語モデルにおける懸念点と目指すべき原則
  • 49.1.1 概説
  • 49.1.2 コスト、スケールの問題
  • 49.1.3 リカレント(再帰)接続/フィードバック接続
  • 49.2 生成AI・LLMとインフォデミックリスク
  • 49.3 生成AIモデルと信頼性
  • 49.4 生成AIとアクセシビリティ
  • 49.5 幻覚/AIのバイアス/偽情報の助長と防止対策
  • 49.5.1 新規性と有用性のバランスをとることの重要性
  • 49.5.2 LLMの幻覚対策/検索拡張世代(RAG:Retrieval Augmented Generation)
  • 49.5.3 生成AIで生成されたコンテンツについて事実性検出のためのフレームワーク
  • 49.5.4 Few-shotプロンプト、Chain-of-Thoughtプロンプトによる間違いの修正
  • 49.6 権利侵害・プライバシー侵害の可能性

50 生成AIで生成されたコンテンツから生まれる知的財産権問題

  • 50.1.1 企業秘密と非公開情報
  • 50.1.2 商標
  • 50.1.3 データセットの著作権
  • 50.2 テキストから画像への変換・拡散モデルにおける著作権保護問題
  • 50.2.1 テキストから画像への変換モデルと著作権の問題
  • 50.2.2 Google 「AI生成画像への「透かし」による安全対策」
  • 50.2.3 Google 「写真編集機能「Magic Editor(マジックエディター)」」
  • 50.2.4 Natureが画像や動画での生成AIの使用を許可しない理由
  • 50.2.5 AI生成画像の見分け方、注目ポイントを専門家が伝授
  • 50.2.6 Microsoft 「Copilotの企業顧客が著作権侵害による訴訟の結果生じる不利な判決には責任を持つ」と

51 デジタルクローニング/ディープフェイク対策

  • 51.1 概説
  • 51.2 ディープフェイク
  • 51.3 MITが開発・提案する生成AIによるディープフェイクの防止に関する新手法

52 コンテンツの来歴と真正性に関する問題

  • 52.1 AIラベリング/画像や動画に出所や編集履歴を示すラベルを付与するプロトコル「C2PA」を巡る動向
  • 52.2 生成エラーを体系的に特定するファクトチェック(事実性検出)

53 ドリフト(生成AIの知能低下)問題/回答生成プロセスの透明度低下問題

  • 53.1 概説
  • 53.2 スタンフォード大学がてがけるドリフト(生成AIの知能低下)問題に関する報告」

54 脱獄問題(「AIに有害情報を答えさせるための情報偽装」

  • 54.1 概要
  • 54.2 Jail Break(脱獄)手法による攻撃

55 データ汚染による「再帰の呪い」問題

  • 55.1 概要
  • 55.2 事例・研究動向

56 専門化されたデータセットのキュレーションの問題

  • 56.1 概要
  • 56.2 対策

57 継続的な学習と再訓練・継続学習戦略の問題

  • 57.1.1 概要
  • 57.2 対策
  • 57.3 関連研究

58 過学習(学習データの過度な最適化による障害)の問題

  • 58.1 概要
  • 58.2 対策

59 AI利用に伴う倫理問題/差別助長などのリスク

  • 59.1 概要
  • 59.2 対策
  • 59.3 生成AIのリスク管理/経団連 「倫理的発展のためのガイドライン(案)」
  • 59.4 概要
  • 59.5 生成AIのリスク管理に関するガイドライン(案)
  • 59.6 ガイドラインに対する評価
  • 59.7 成果を上げるための戦術的なヒント

60 生成AI普及によるデータセンターのエネルギー消費量激増の問題

  • 60.1 概要
  • 60.2 対策

61 生成AIのサイバーセキュリティ対策

  • 61.1 概要
  • 61.2 対策
  • 61.3 国別対策動向
  • 61.4 企業の関与

62 データ抽出攻撃の問題

  • 62.1 概要
  • 62.2 対策

63 プロンプトインジェクション攻撃のリスク

  • 63.1 概要
  • 63.2 対策

64 参入企業動向

  • 64.1 Google Cloud 「生成AI利用のセキュリティプラットフォーム「Security AI Workbench」を発表」

【 生成AI・大規模言語モデル(LLM)が抱えるリスク対策<2> 】

65 生成AI・大規模言語モデル(LLM)が抱えるリスクと規制

  • 65.1 概説
  • 65.2 OpenAIなど10社による自主ガイドライン

66 4-2 生成AIによる著作権侵害への対策検討

  • 66.1 概要
  • 66.2 ユーザー側が考慮するべき要点
  • 66.3 生成AIサービスのプロバイダーにおけるリスク
  • 66.4 「知的財産推進計画2023」原案/生成AIによる著作権侵害への対策検討
  • 66.5 文化庁の「AIと著作権」の解釈

67 生成AIと特許の最新動向

  • 67.1 概説
  • 67.2 生成AIアルゴリズムと知的財産権
  • 67.3 機械学習と知的財産権
  • 67.4 ディープラーニングと知的財産権
  • 67.5 AIとIoT技術の融合と知的財産権
  • 67.6 生成AIと3次元プリンタによるデジタルファブリケーションと知的財産権
  • 67.7 3Dプリントにおける生成AIの適用と知的財産権
  • 67.8 AIの企業秘密と特許

68 生成AIと特許の考察

  • 68.1 概説
  • 68.2 特許クレームと発明者意識
  • 68.2.1 主題適格性
  • 68.2.1 先行技術の評価
  • 68.2.1 開発者
  • 68.2.1 クリエイター
  • 68.2.1 企業

69 情報漏洩対策

  • 69.1 機密情報漏洩の可能性
  • 69.2 生成AIや関連するツールを企業で利用する際に留意すべき事項

70 生成AIの利用・開発で留意すべきリーガルリスク

  • 70.1 概要
  • 70.2 AI開発・学習段階における検討ポイント
  • 70.3 「知的財産に関するデータ」を学習に用いる場合
  • 70.3.1 【注記】 著作権法
  • 70.4 契約による利用制限の可否(オーバーライド問題)
  • 70.5 データ提供契約に基づく利用制限
  • 70.6 個人情報保護ならびに「パーソナルデータ」を学習に用いる場合
  • 70.7 プライバシーポリシーならびに利用規約・規定内容
  • 70.8 肖像権の保護法益
  • 70.9 パブリシティ権侵害

71 人工幻覚(AIによる真実ではない確信的な応答問題)

  • 71.1 概説
  • 71.2 幻覚の軽減と測定
  • 71.3 幻覚を見ている人工知能を見抜く方法

72 偏向性・毒性の問題と対処

  • 72.1 概要
  • 72.2 毒性の問題への対処

73 プライバシー問題およびメンバーシップ推論攻撃(MIA)の問題

  • 73.1 はじめに
  • 73.2 研究動向

74 最新動向・事例

  • 74.1 OpenAIがコンテンツ収集に用いるウェブクローラー「GPTBot」をブロックする試み

75 生成AI・大規模言語モデル(LLM)が抱えるリスクと規制

  • 75.1 概説
  • 75.2 リスクと強制力を重視する「ハード・ロー」と、技術の促進を重視する「ソフト・ロー」のせめぎあい
  • 75.3 各地域・各国の状況
  • 75.3.1 EU
  • 75.3.2 米国
  • 75.3.3 中国
  • 75.3.4 日本
  • 75.4 AIリスクの法制化・規制状況
  • 75.4.1 概説
  • 75.4.2 EU、リスクベースの規則を提案 AIアプリケーションをリスクベースの階層に分け、禁止する規則案を提出
  • 75.4.3 欧州議会の決議
  • 75.5 各国の法制化動向
  • 75.5.1 欧州連合(EU)
  • 75.5.2 米国
  • 75.5.3 中国
  • 75.5.4 シンガポール
  • 75.5.5 日本
  • 75.6 AI・LLMのハイレベルな枠組みを巡る動向
  • 75.7 関連研究
  • 75.7.1 ファンデーションモデルに対する規制の優先順位

76 規制遵守とLLM/生成AI

  • 76.1 概説
  • 76.2 GRC(ガバナンス、リスク、コンプライアンス)
  • 76.3 長い形式のテキスト判例とコンサルテーションペーパー
  • 76.4 LLM/生成AIによる解法アプローチ例
  • 76.4.1 LLMベースのエキスパートシステム
  • 76.4.2 生成AIによる問題軽減
  • 76.5 生成AIとリーガルテック/生成AIとレグテック
  • 76.5.1 リーガルテック/レグテックに新時代をもたらす生成AI
  • 76.5.2 生成AIが企業内法務に与える影響
  • 76.5.3 法律業界における生成AIの活用
  • 76.5.4 リーガルテック分野において想定される生成AIの使用パターン
  • 76.5.5 法務省指針 「リーガルテックについて、サービス「適法」の見解を示す」
  • 76.5.6 法務省 「企業契約書の審査においてAI活用を容認する指針を公表」
  • 76.5.7 米国での規制動向
  • 76.5.8 生成AIがもたらす課題
  • 76.5.9 生成AIと企業リスク部門における今後のシナリオ
  • 76.6 関連機関の報告書
  • 76.6.1 マッキンゼー 「生成AIに関するレポート」
  • 76.6.2 トムソン・ロイター 「法律事務所における生成AIの導入効果、今後のシナリオ」
  • 76.6.3 トムソン・ロイター 「法務分野における生成AIの利用状況や意識調査」
  • 76.7 レグテックと生成AI統合
  • 76.7.1 レグテックの定義
  • 76.7.2 レグテックと生成AI統合の意義・価値
  • 76.7.3 レグテック+生成AIに向けた期待の背景にあるもの
  • 76.7.4 生成AI+レグテックによるコンプライアンスに対するリアルタイム対応技術の発展
  • 76.7.5 コンプライアンス対応処理の自動化
  • 76.8 レグテック・ソリューションのターゲットおよび特徴
  • 76.8.1 規制の解釈・コンプライアンス管理、報告書の自動化
  • 76.8.2 ビッグデータアナリティクス/レポート/分析ツールとの連携
  • 76.8.3 AI/ブロックチェーンの進歩とレグテック
  • 76.8.4 アンチマネーロンダリング(AML)システム
  • 76.9 関連ツール
  • 76.9.1 Gracenote

77 責任あるLLM/説明可能なLLMに関連する規制上の課題

  • 77.1 責任あるAIの安全基準確保の課題
  • 77.2 責任あるAIの制御性確保
  • 77.3 AIにおけるコンプライアンス確立に係る諸課題
  • 77.4 責任あるAIの透明性と説明責任
  • 77.5 責任あるAIとAIセキュリティ強化

78 説明可能なLLMフレームワーク

  • 78.1 説明可能なAIフレームワーク 概説
  • 78.2 説明可能なAIと解釈可能なAI
  • 78.3 説明可能なAIの応用例

79 倫理的AI・倫理的LLMのフレームワーク

  • 79.1 倫理的AI・倫理的LLMの指導原則
  • 79.2 倫理的AI・倫理的LLMの対処例

【 生成AI・大規模言語モデル(LLM)が抱えるリスク対策<3> 】

80 LLMのリスクおよび信頼性向上の課題・対策

  • 80.1 概説
  • 80.2 LLMにおける学習データの偏り
  • 80.3 フェイクニュースの生成、誤情報の拡散、世論操作の可能性
  • 80.4 透明性の欠如
  • 80.5 言語と文化的バイアス
  • 80.6 バイアス、毒性、説明可能性
  • 80.7 精度(幻覚)
  • 80.8 プライバシーとデータセキュリティ
  • 80.9 著作権侵害問題
  • 80.10 言語モデルトレーニングで記事や画像のスクレイピングを巡る法廷闘争

81 LLMのリスクおよび信頼性向上の課題・対策

  • 81.1 LLMの監査プロセスの構築
  • 81.2 膨大なメモリと計算能力
  • 81.3 スループット指向の生成推論
  • 81.4 逆スケーリングを示すタスクの問題
  • 81.5 LLMのAPIを利用するためのコスト
  • 81.6 LLMを用いたLLM品質の自動評価(LLM-as-a-judge)
  • 81.6.1 LLMの選択肢の広がりと評価基準
  • 81.6.2 注目を集めるLLM-as-a-judge
  • 81.7 中立的な視点
  • 81.8 開発コスト/推論コスト
  • 81.9 生成AIのワークロードに応じたリソース配分・最適化
  • 81.10 インフォデミックリスク

82 LLM・生成AIに内在する問題(知識ベースの時間的制約、複雑な数学的計算、幻覚等)の解決の道筋

  • 82.1 概説
  • 82.2 関連研究
  • 82.2.1 llmsuiteで高度な大規模言語モデルを探求する

83 大規模言語モデル・生成AI活用と情報およびデータの品質管理/データ検証

  • 83.1 概説
  • 83.1.1 データ管理とAI・生成AI
  • 83.1.2 生成AIのデータ管理への影響
  • 83.2 AIを活用したデータ管理における企業における実践的アプローチ
  • 83.3 データ管理のベストプラクティス
  • 83.4 マイクロサービスと生成AIによるマスターデータ管理

84 より説得力のあるLLM/強いモデルの研究開発をめぐる状況

  • 84.1 概説
  • 84.2 強いモデルを監督しようとするアプローチ
  • 84.3 関連研究
  • 84.3.1 ユニバーシティ・カレッジ・ロンドン・スピーチマティクス 「より説得力のあるLLMとのディベートは、より真実味のある回答を導く」

85 説明可能なAIと大規模言語モデル

  • 85.1 説明によって意思決定時のAIシステムへの過度な依存を軽減するアプローチ
  • 85.2 関連研究
  • 85.2.1 スタンフォード大学 「意思決定AIシステムの戦術的判断をコスト・ベネフィット・フレームワークで定式化・検証」

86 倫理的ジレンマとLLM/生成AI

  • 86.1 概説
  • 86.2 倫理性・透明性要件を課すガイドライン
  • 86.3 ガイドラインとして最低限押さえておくべき内容

87 大規模言語モデル・生成AIの事実性評価ベンチマーク

  • 87.1 概説
  • 87.2 事実性検出のベンチマーク
  • 87.3 LLMの事実想起性能のベンチマーク
  • 87.4 LLMおよびRAGシステムにおけるロバストなAIベンチマーク
  • 87.5 長いコンテキストのベンチマーク
  • 87.6 関連研究
  • 87.6.1 カリフォルニア工科大学、エヌビディア他研究チーム 「LeanDojo:リーン証明アシスタントで形式的定理を証明する大規模言語モデルのためのツールキット」
  • 87.6.1 香港城市大学/カーネギーメロン大学他研究チーム 「FELM: 大規模言語モデルの事実性評価ベンチマーク」
  • 87.6.2 メリーランド大学/ミシガン州立大学研究チーム 「世界銀行の国別データから構成されるダイナミックで柔軟なLLMベンチマーク:WorldBench」
  • 87.6.3 Salesforce AI Research  「LLMおよびRAGシステムにおけるロングコンテキストの要約を評価するためのロバストなAIベンチマーク:SummHay」

88 LLM・生成AIのリサーチ・ツールとしての信頼性評価

  • 88.1 リーガルAIの台頭とリスク
  • 88.2 幻覚問題
  • 88.3 RAGの限界
  • 88.4 関連研究
  • 88.4.1 スタンフォード大学他研究チーム 「主要なAIリーガル・リサーチ・ツールの信頼性を評価する」

89 透明で解釈可能なLLM・生成AIに向けた協調的な取り組み

  • 89.1 概説
  • 89.2 関連研究
  • 89.2.1 RAGを用いたLLMによる特徴の重要度から自然言語による説明へ

90 LLM/生成AIの安全性強化に向けた取り組み

  • 90.1 生成AI/LLMの安全性
  • 90.2 生成AI/LLMの安全性評価における課題
  • 90.3 方法とデータ入手における課題
  • 90.4 生成AI/LLMの安全性評価のための技法
  • 90.4.1 アルゴリズム監査と全体論的評価
  • 90.4.2 直接評価
  • 90.4.3 探索的評価(Exploratory evaluation)
  • 90.5 生成AI/LLMの安全性評価のためのベンチマーク
  • 90.6 生成AI/LLMの安全性をベンチマークする主なプロジェクト

91 LLM/生成AIのロバスト性(信頼性・堅牢性)の向上策

  • 91.1 概説
  • 91.1.1 LLMの幻覚
  • 91.1.2 高度なRAG
  • 91.2 関連研究
  • 91.2.1 グーグル・リサーチ他研究チーム 「修正検索 拡張世代」

92 検索補強と自己反省によるLLM・生成AIの品質向上・事実性向上

  • 92.1 概説
  • 92.2 RAG(検索補強型生成)
  • 92.3 自己反省型検索拡張生成(Self-Reflective Retrieval-augmented Generation: SELF-RAG)
  • 92.4 関連研究
  • 92.4.1 ワシントン大学/アレンAI研究所 「セルフラグ:自己反省を通じて、検索、生成、批評することを学ぶ¥

93 LLM・生成AIにおけるデータセットのライセンスと帰属に関する監査

  • 93.1 概説
  • 93.2 データ解析と探索
  • 93.3 透明性と説明責任
  • 93.4 データセットの合法性

94 LLM・生成AIとテクニカル・アライメント問題

  • 94.1 概説
  • 94.2 存続リスクとLLMのオープンソース化
  • 94.3 技術的な整合性を高めるオープンソースLLM
  • 94.4 パワーバランスの維持に役立つオープンソースLLM
  • 94.5 分散型調整メカニズムの開発に役立つオープンソースLLM

95 LLM/生成AIのアライメントとロバスト性を向上させるための対処法

  • 95.1 概説
  • 95.2 LLMに対する敵対的攻撃と対策
  • 95.3 関連研究
  • 95.3.1 ブラック・スワンAI他研究チーム 「アライメントとロバスト性を向上させるサーキットブレーカー」

96 LLM・生成AIにおける幻覚と精度の課題

  • 96.1 概説
  • 96.2 幻覚/人工幻覚
  • 96.2.1 概説
  • 96.2.2 LLMの幻覚回避策/データからメタデータへ
  • 96.3 幻覚の検出ソリューション
  • 96.4 関連ツールおよびソリューション
  • 96.4.1 Haize Labs 「Sphynx」
  • 96.5 関連研究
  • 96.5.1 スタンフォード大学、イェール大学研究チーム 「法律研究におけるAIの信頼性の評価:幻覚と精度の課題」

97 大規模視覚言語モデル(LVLM)と物体幻覚の問題・対策

  • 97.1 概説
  • 97.1.1 視覚的な命令チューニング
  • 97.1.1 視覚的プロンプト
  • 97.1.1 オブジェクトの幻覚
  • 97.2 関連研究
  • 97.2.1 ミシガン大学他研究チーム 「視覚言語モデルにおける多視点幻覚」

98 LLM/生成AIにおける幻覚の問題と対処法

  • 98.1 概説
  • 98.2 事例
  • 98.3 Larimar

99 LLM/生成AIの脆弱性リスクと対処

  • 99.1 概説
  • 99.2 LLMにおける敵対的攻撃の現状と対策
  • 99.3 研究チーム、参入企業動向
  • 99.3.1 米国国立生物工学情報センター(NCBI)、米国国立医学図書館(NLM)、メリーランド大学カレッジパーク校研究チーム 「ヘルスケアAIの保護:LLM操作リスクの暴露と対処」

100 LLM/生成AI脱獄攻撃の現状と対策

  • 100.1 概説
  • 100.2 テキストベースの脱獄攻撃
  • 100.3 視覚的脱獄攻撃
  • 100.4 整列LLMの脱獄
  • 100.5 LLMデコーディング
  • 100.6 関連研究
  • 100.6.1 カリフォルニア大学サンタバーバラ他研究チーム 「大規模言語モデルにおける弱い脱獄から強い脱獄へ」

101 LLM/生成AIと脱獄技術の進化

  • 101.1 概説
  • 101.2 LLMの脱獄対抗戦略を構成する3つのカテゴリー
  • 101.2.1 ヒューマンデザイン
  • 101.2.2 ロングテール・エンコーディング
  • 101.2.3 プロンプト最適化
  • 101.3 関連研究
  • 101.3.1 復旦大学コンピューターサイエンス学院他研究チーム 「EasyJailbreak:大規模言語モデルを脱獄するための統一フレームワーク」

【 生成AI・大規模言語モデル(LLM)が抱えるリスク対策<4> 】

102 プライバシー保護AI技術の進展

103 プライバシーを保持する大規模言語モデル(PPLLMs)

  • 103.1 概要
  • 103.2 安全な多項式と行列ベクトルの委譲を用いたプライバシー保持LLM (PPLLM)
  • 103.3 AIおよびLLMモデルのためのプライバシー保持変換
  • 103.4 考察と今後の研究の方向性

104 LLM/生成AIを活用した金融会社のリスク軽減

  • 104.1 リスクの軽減
  • 104.2 不正のリスク
  • 104.3 今後の課題・テーマ等
  • 104.4 関連研究

105 LLM/生成AIにおけるプライバシー保護

  • 105.1 概説
  • 105.2 関連研究
  • 105.2.1 プライバシーを保持する大規模言語モデル(PPLLMs)

106 LLM/生成AIと責任・信頼性・法の未来

  • 106.1 概説
  • 106.2 会話ベースのAI
  • 106.2.1 法律・法学シミュレーションとしてのLLM(の可能性)
  • 106.2.2 専門的法律アシスタントとしてのLLM(の可能性)
  • 106.2.3 非専門家向け法律アシスタントとしてのLLM(の可能性)
  • 106.3  関連研究
  • 106.3.1 大規模言語モデルと法の未来

【 ツールキット/フレームワーク/関与する企業・団体 】

107 責任あるAIのためのツールキット

  • 107.1 TensorFlow Privacy
  • 107.2 TensorFlow Federated
  • 107.3 TensorFlow Model Remediation
  • 107.4 TensorFlow Data Validation
  • 107.5 Microsoft Responsible AI Toolbox
  • 107.6 XAI
  • 107.7 Deon
  • 107.8 Model Card Toolkit
  • 107.9 AI Fairness 360
  • 107.10 Fairlead
  • 107.11 DALEX
  • 107.12 Fawkes
  • 107.13 TextAttack
  • 107.14 AdverTorch

108 責任あるAI・説明可能なAIフレームワークおよびプラットフォーム

  • 108.1 Claude3/Claude3.5
  • 108.2 SAP SE
  • 108.3 説明可能な自己監視エージェントグループフレームワーク(ESSA)
  • 108.4 Whatif Tool(WIT)
  • 108.5 ELI5
  • 108.6 Skater
  • 108.7 SHapley Additive exPlanations (SHAP)
  • 108.8 LIME
  • 108.9 DeepLIFT
  • 108.10 AIX360
  • 108.11 Local Interpretable Model-Agnostic Explanations (LIME)
  • 108.12 EL15
  • 108.13 AI Explainability 360 (AIX360)
  • 108.14 Snapash
  • 108.15 XAI
  • 108.16 OmniXAI1
  • 108.17 Activation atlases

109 業界団体

  • 109.1 AIアライアンス
  • 109.2 一般社団法人 Generative AI Japan

110 主要プレーヤー、関連企業の動向

  • 110.1 グーグル
  • 110.2 ホワイトハウスの自主的な責任あるAI誓約に新たにコミットした企業群
  • 110.3 ABBYY

 

 

ページTOPに戻る

ご注文は、お電話またはWEBから承ります。市場調査レポートのお見積もり作成・購入の依頼もお気軽にご相談ください。

webからのご注文・お問合せはこちらのフォームから承ります

本レポートと同じKEY WORD()の最新刊レポート

  • 本レポートと同じKEY WORDの最新刊レポートはありません。

よくあるご質問


次世代社会システム研究開発機構社はどのような調査会社ですか?


一般社団法人次世代社会システム研究開発機構は、社会・産業・経営に大きな影響を与える先端技術からマネジメント、次世代産業まで幅広い分野を対象に、経験豊富なアナリストによって編纂された学際的・... もっと見る


調査レポートの納品までの日数はどの程度ですか?


在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
但し、一部の調査レポートでは、発注を受けた段階で内容更新をして納品をする場合もあります。
発注をする前のお問合せをお願いします。


注文の手続きはどのようになっていますか?


1)お客様からの御問い合わせをいただきます。
2)見積書やサンプルの提示をいたします。
3)お客様指定、もしくは弊社の発注書をメール添付にて発送してください。
4)データリソース社からレポート発行元の調査会社へ納品手配します。
5) 調査会社からお客様へ納品されます。最近は、pdfにてのメール納品が大半です。


お支払方法の方法はどのようになっていますか?


納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
お客様よりデータリソース社へ(通常は円払い)の御振り込みをお願いします。
請求書は、納品日の日付で発行しますので、翌月最終営業日までの当社指定口座への振込みをお願いします。振込み手数料は御社負担にてお願いします。
お客様の御支払い条件が60日以上の場合は御相談ください。
尚、初めてのお取引先や個人の場合、前払いをお願いすることもあります。ご了承のほど、お願いします。


データリソース社はどのような会社ですか?


当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
世界各国の「市場・技術・法規制などの」実情を調査・収集される時には、データリソース社にご相談ください。
お客様の御要望にあったデータや情報を抽出する為のレポート紹介や調査のアドバイスも致します。


詳細検索

このレポートへのお問合せ

03-3582-2531

電話お問合せもお気軽に

 

 

2026/01/06 10:26

157.71 円

185.02 円

216.11 円

ページTOPに戻る