Shiftがお届けするインタビューシリーズ『4つの質問』。今回は、Chief Scientist and Chief Product Officer のエリック・シボニーが登場。エージェント型AIを全面的に採用するに至った、当社のさらなる進化の軌跡を振り返ります。
以前、保険金査定プロセス効率化ソリューションをリリースした際にも「エージェント型AI」についてお話しいただきました。当時と現在で、エージェントの役割や保険業界におけるAI活用に対する考え方に、どのような変化がありましたか?
非常に興味深い質問ですね。結論から申し上げますと、私たちの根底にある考え方は変わっていません。重要な業務プロセスの自動化を推し進める上で、エージェントが保険会社に計り知れない価値をもたらすという確信は、当時から揺らいでいないのです。
変わったのは、エージェントを実現するための「基盤技術」そのものの劇的な進化です。
この半年間で、自律型AIの核となる大規模言語モデル(LLM)の性能は飛躍的に向上しました。特に2月に主要な研究機関から発表されたモデルの進化は目覚ましく、エージェントの能力は「細かく指示された短時間のタスク」をこなすレベルから、「数日間にわたる継続的な論理思考(推論)」が可能なレベルへと到達しました。
つまり、エージェントは単に繰り返しの作業を自動化するツールではなく、あたかも「熟練の専門家(サブジェクト・マター・エキスパート)」のように振る舞えるようになったのです。この変化に伴い、私たちの製品設計も根本から変わりました。特定の機能にエージェント的な要素を「付け加える」のではなく、保険金支払い、不正検知、求償管理といったあらゆる製品の中核(コア)に「エージェントによる推論」を据える設計へと移行したのです。
運用面においても、Shiftは「AIが核心(AI as core)」という段階から、「エージェントこそが製品(agents as product)」という段階へ踏み出しました。 推論エンジンを製品の心臓部に組み込み、エージェントをいつでも呼び出せるサービスとしてパッケージ化しました。これにより、エージェントは必要に応じて、エンティティの再構築や外部ブラウジング、各種APIといった「ツール」を自ら自在に使いこなす(オーケストレーションする)ことが可能になっています。これまで培ってきたデータパイプラインなどの実績あるコンポーネントも、今ではエージェントが目的を達成するための「道具」として再定義されています。
要約すれば、私たちが目指す方向性は変わりませんが、その進化のスピード、アーキテクチャの思想、そして高度な制御(オーケストレーション)と研究開発への注力は、かつてないほど強固なものになっています。
これからは「エージェントを提供していく」と仰っていますが、具体的にはどういう意味なのでしょうか。また、従来のAIと区別することに、どんな意味があるのですか?
「エージェントを提供する」というのは、大きく分けて2つの意味があります。 一つは、エージェント型が単なる「便利な追加機能」ではなく、製品の心臓部そのものになっているということ。もう一つは、製品をそのまま「自律して動く、呼び出し可能な専門家(エージェント)」として、お客様の業務にすぐに組み込める形で提供している、ということです。
具体例を挙げると分かりやすいでしょう。 これまでの「不正検知機能」は、今や「不正検知エージェント」へと進化しました。このエージェントは、請求を受け取ると自ら調査方針を立て、複数のツールを使いこなして調べを進め、判断に迷う時だけ人間に相談します。さらに、一連の支払い業務の中で、他のエージェントと連携して動くこともできます。
この違いは、「何を導入するか」という前提を根本から変えてしまいます。 お客様が手にするのは、単なる「分析ツール」や「予測データ」ではありません。自分の頭で考えて判断を下し、柔軟に使いこなせる「自律した意思決定パートナー」を雇うようなものだからです。
この考え方は、システムの作り方や活用の幅も広げてくれます。 エージェントが活躍するためには、信頼できるデータや、APIなどの道具、そして数日にわたる作業を覚え、必要に応じて人間にバトンタッチする仕組みが不可欠です。これらをパッケージ化して提供することで、保険会社側で複雑なシステム開発をする手間はなくなります。
バラバラのAIモデルを一つずつ導入するのではなく、そのまま現場に投入でき、お互いに連携もできる即戦力のパーツ」をお届けする。それが、私たちの言う「エージェントを提供する」ということなのです。
業界内では「自社でエージェントを構築できる」という声も多く聞かれます。もし自社開発という道を選んだ場合、どのような点がハードルになるのでしょうか?
自社で構築に挑戦される企業があるのは当然の流れですし、その可能性は十分にあります。ただ、実際に取り組んでみると「まずは動くもの」を作る段階と、実務で真価を発揮する「業界トップレベル」のものを運用し続ける段階の間には、想像以上に大きな差があることに気づかされるはずです。
まず直面するのは、技術・組織・そして専門知識という3つのバランスです。 技術的には、エージェントに正しくデータを送り込み、複数のツールを使いこなさせながら、数日にわたる長い業務を最後まで管理する仕組みを整えなければなりません。また、組織としては、目まぐるしく進化する最新モデルを常に追いかけ、システムを改善し続けられる専任チームを維持していく必要があります。
特に難しいのが、保険実務の「勘所」をどう教え込むかという点です。エージェントに「ここは自分で判断し、ここは人間に任せる」といった高度な振る舞いをさせるには、単なる指示文(プロンプト)の工夫だけでは不十分です。保険業務を深く理解した上での緻密なロジック設計が欠かせません。
さらに、導入後の「鮮度」を保つ難しさもあります。AIの世界は進化が速く、最適化の作業は一度で終わるものではありません。常に最新の状態にアップデートし続けるのは、一つのプロジェクトというより、もはや終わりのない製品開発に近い作業になります。
最後に、品質管理の面でも非常に高い精度が求められます。保険というミスの許されない分野で、99%以上の確かな結果を出し続けるには、監視の仕組みや厳格なルール設定が必要です。もちろん、自社でこれらを構築することも可能ですが、多大なリソースと専門性が求められるのは事実です。すでに実績のある専門的な解決策がある中で、それらを一から自社で再現することが、果たして効率的かどうかという点は、慎重に検討されるべきかもしれません。
Shiftは以前から、「わからない」と言えるAIの重要性を説いてきました。自律型AI(エージェント)の導入が進む中で、この考え方はより重要になっていくのでしょうか。
はい、むしろ重要性はこれまで以上に高まっています。
エージェントがより大きな権限を持ち、数日、あるいは数ヶ月にわたるような複雑な業務を自律的にこなすようになると、もしAIが「間違っているのに自信満々に答えてしまった」場合、その代償は非常に大きくなります。 安全に自動化の範囲を広げていくための唯一の方法は、「確かな判断」と「賢い棄権(あえて判断しないこと)」を組み合わせることです。自信がない時や、失敗が重大なリスクにつながる場面では、無理に答えを出さず、潔く人間にバトンタッチする。そんなエージェントこそが、保険業界が求める「信頼」に応えられるのです。
また、エージェント型AIという仕組みのおかげで、この「わからない」という判断は、より緻密で高度なものになりました。
今の私たちの技術では、業務を「全体を指揮するエージェント」と「それをチェックする専門エージェント」に分担させたり、統計的な矛盾を検知するモニタリング機能を組み込んだりしています。これにより、単に「正解か不正解か」を出すだけでなく、「正解の確信度」と「失敗した際の影響」を天秤にかけながら、「はい/いいえ/(リスクがあるから)わかりません」という柔軟な判断ができるようになりました。
現場での運用において、「わからない」という回答は決してエラーではありません。むしろ、「リスクを回避した上での、立派な成果の一つ」です。根拠が明確で、スムーズに人間へ引き継げる「賢い棄権」の仕組みがあるからこそ、自動化は本当の意味で安全に進んでいくのです。