
資産運用会社では「情報共有」が罪になる。
アナリストが取材で未公表の重要事実に触れ、それがファンドマネージャーに伝われば、公表されるまで当該銘柄は売買できなくなる。知りながら売買すれば金商法違反となるからだ。一般企業では美徳とされる情報共有が、資産運用の世界ではむしろ「違法行為」となりかねない。
大和アセットマネジメントが、LegalOn Technologies(東京都渋谷区)と共同でインサイダー情報検知AIシステムの開発に着手した。アナリストの取材メモをAIがスクリーニングし、未公表の重要事実が含まれていないかを検知する仕組みだ。
だが本稿の焦点は、その技術ではない。
|
|
|
|
「何時間分、何人分のコストを削減できたかを重視しているのではありません」──大和アセットマネジメント法務コンプライアンス部審査課長の中川奈々氏は、AI導入の目的をこう説明する。
コスト削減ではなく、質の向上。この言葉の選び方に、AIを組織に定着させる本質が見えた。
●「自分でやったほうが速い」の壁
生成AIの導入は、多くの企業で頓挫している。
ある金融機関でAI導入を担当する幹部はこう語る。「簡単にPOC(概念実証)を始められ、それっぽいものはできる。しかし、そこからが地獄の始まり。米国では5〜12%しか業務リリースに至らないというデータもある」
|
|
|
|
中川氏も、この壁を認識していた。「AIは変な答えを出すことがあり、『自分でやったほうが速い』という声はあると思う」
現場がAIを使わなくなるのは、精度が中途半端だと、結局は人間が全件チェックし直す羽目になるからだ。医療画像診断の世界では、AIが誤認識により警告を出しすぎたために医師がスイッチを切ってしまうケースが相次ぎ、開発の課題となった。金融でも、事情は同じである。
そんな危うさを抱えるAI活用だが、大和アセットマネジメントにとって転機となったのは、インサイダー検知に先立って導入した広告審査AIでの経験だった。
広告審査とは、投資信託の販売資料や運用レポートが法令やガイドラインに違反していないかをチェックする業務だ。「元本保証」のように明らかに使用が規制された表現はもちろん、将来の運用成果を保証するような表現や断定的な表現、扇動するような表現など、文脈によって判断が分かれるグレーゾーンのものも多い。同社では月に1000件を超える審査を行っており、担当者の負荷は大きかった。
難しさは文脈判断だけではない。LegalOn Technologiesの舟木類佳氏は「画像やグラフ、表も出てくる。ChatGPTにデータを与えればすぐに判断できるという話ではない」と語る。
|
|
|
|
大和アセットマネジメント法務コンプライアンス部の五島麻以氏は、「日々フィードバックを行い、その度に精度を上げてくださった結果、AIが文脈や資料全体を見た上でコメントを出してくれるようになりました」と振り返る。この点が実用化の鍵となり、広告審査での成功体験が、次の挑戦への土台となったのである。
●「コスト削減」と言わない
AIの導入を経営陣に説明する際、多くの企業は「コスト削減効果」を前面に出す。何時間の削減、何人分の省力化──そうした数字がなければ稟議が通らないと考えるからだ。
しかし、中川氏はあえてその道を選ばなかった。
「コストが下がるという説明はしていません。AIを使って、業務の質を向上させたいと伝えました」
この姿勢には理由がある。インサイダー情報の判定は、同社でもベテランのスタッフが担ってきた業務だ。経験と勘がものを言う領域であり、そのノウハウをAIに教え込むには、ベテランの協力が不可欠となる。
中川氏はベテランスタッフと繰り返し対話を重ねた。「あなたたちの仕事を奪うものではない。新しい人が入ってきたときに、質を保てるようにすることが目的」といった前提を共有することが重要だったという。
人員削減を掲げた瞬間、現場の協力は得られなくなる。これはAI導入に限らず、業務改革に共通する話だ。だが生成AIの場合、問題はより深刻になる。AIの精度を上げるには現場の知見が必要であり、現場の協力が得られなければ「使えないAI」のまま終わるからだ。
さらに、中川氏が強調したのは「学び」の視点である。広告審査AIを使う中で、単にNGを出すだけでなく、文章の改善案も出してくれることに気付いた。
「『ここはこう変えたほうが良い』と提案してくれるため、審査する側のスキルアップにもつながっています」(中川氏)。AIを「仕事を奪う脅威」ではなく、「人を育てる先生」として使う。その位置付けが、現場の抵抗感を和らげている。
●検知であって、判定ではない
では、AIはインサイダー情報をどこまで判定できるのか。
開発を担当するLegalOn Technologiesの早津誠文氏は、明確に線を引く。「最終判断は人が行います。AIに判定を求めることは想定していません」
インサイダー情報の判断は、一筋縄ではいかない。金融商品取引法には「重要事実」が記載されているが、それに加えて、投資判断に著しい影響を及ぼすものも重要事実になるという「バスケット条項」もある。さらに、一定の範囲内であれば該当しないとする「軽微基準」も存在する。そのため、「ものによっては弁護士と話し合って結論を出す必要がある」と中川氏は語る。
AIの役割は、あくまでも「検知」である。取材メモの中に、業務提携や決算情報、事業譲渡など、法令に抵触する記述がないかを洗い出す。
「AIが抜け漏れなく、迅速に検知してくれるという安心感。その上で人の目で見ていくことが大事です」と中川氏は説明する。ベテランと新人で審査の質にばらつきが出ることを防ぎ、網羅性を担保するのがAIの仕事だ。
音声データの活用も視野に入れている。アナリストが企業と電話で話した内容の録音データをテキスト化し、AIで解析する試みも検討中だという。
金融庁が昨年公表したAIに関するディスカッションペーパーには、「チャレンジしないこと自体がリスクとなる局面」と書かれており、中川氏は「まずは当社から」と語る。
●「決断」は人にしかできない
中川氏は、AI時代に人間に求められる能力についてこう語った。「定型的な作業はAIに任せ、人でなければできない仕事に集中したい。特に"決断"の部分は人にしかできない。AIが出した情報を取捨選択し、相手先との関係性や会社の戦略を加味しながら決断するスキルが求められる」
だが、この「決断力」は、どこで身に付けられるのか。
生成AI基盤開発企業の米Anthropicが2025年12月に公表した社内調査で、「監督のパラドックス」という問題を指摘している。AIが実務を代行すると、人間は実務を通じて培うはずの文脈理解や判断力を育てる機会を失う。結果として、AIの出力を監督する力も衰える──という悪循環を指す言葉だ。
多くの企業が「AIによる効率化」を掲げて若手の定型業務を奪っている。だがそれは、将来の「目利き」を育てる機会を減らすことでもある。実務を経験しなければ、何が正しく、何が危ういかの勘は養われない。ベテランはいずれ引退する。そのとき、AIを監督できる人間が誰もいないという事態が、静かに進行しているのかもしれない。
大和アセットマネジメントの広告審査AIが示すのは、その解決策である。AIは単にNGを出すだけでなく、「なぜこの表現が問題なのか」「どう直すべきなのか」を提示する。担当者は実務をショートカットしながらも、判断の勘所を学ぶことができる。
AIは仕事を奪うライバルではなく、判断力を磨くパートナー。この関係性を築けるかどうかが、組織の未来を分けることになるだろう。
(斎藤健二、金融・Fintechジャーナリスト)
|
|
|
|
|
|
|
|
Copyright(C) 2026 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。