ESGスコアリングとAI── サステナブル投資の信頼性をどう担保するか
企業開示データのばらつきをAIで補正する最新アプローチを取材。

機械学習を用いたポートフォリオ最適化は、従来のマーコビッツ型最適化が前提とする「定常的な共分散行列」の限界を超え、時変的な市場構造を捉えることを目指すアプローチです。しかし多くの機関投資家が懸念するのは、モデルが「なぜその銘柄を選んだのか」を説明できない点でした。
近年注目されているのが、解釈可能なAI(Explainable AI, XAI)を組み込んだ運用モデルです。SHAPやLIMEといったポストホック説明手法だけでなく、モデル構造そのものに透明性を持たせるアプローチ──例えば注意機構付きの時系列モデルや、ルールベースの特徴選択──が実務で成果を上げ始めています。
当研究所では国内大手運用会社3社との共同プロジェクトで、マルチファクターモデルに勾配ベースの寄与度分析を統合したフレームワークを構築。運用者が「どのファクターがどの程度リターンに寄与したか」をリアルタイムで確認できるダッシュボードを実現しました。
バックテストでは、従来モデルと同等以上のシャープレシオを維持しつつ、リスク管理部門からの「説明責任」要求にも応える結果が得られています。解釈可能性はパフォーマンスとトレードオフではなく、むしろ過学習の抑制を通じてアウトオブサンプル性能を向上させる効果が確認されました。
今後は、マルチモーダルデータ(テキスト・画像を含む)の統合と、規制当局が求める「モデルリスク管理」ガイドラインへの準拠を両立させる研究を進めてまいります。