金融のすべての人は、すべての銀行を見ています。
実際、それは資産を十分に速く追いかけていない人にとっては脅威です。
それは、適切な投資の組み合わせを選択し、状況の変化に応じて調整することです。現在、人間のアドバイザーがそれを処理しています。しかし、AI の方がそれをよりうまくできる可能性はあるでしょうか? ネタバレ: おそらくないでしょう。
ロボアドバイザーの問題点
しかし、資産管理には費用がかかり、ほとんどの人は高額な費用を負担できません。これは AI が役立つ分野です。
AI を活用したシステムは、低コストでカスタマイズされたアドバイスを提供できるため、これまでは富が「十分」でなかったために人間によるアドバイスを受けられなかった人々も、アドバイスを受けられるようになります。
しかし、ここにちょっとした落とし穴があります。ロボアドバイザーは、それほど人気があるわけではありません。AI が株式、債券、ファンドの最適な組み合わせを提案したとしても、提案するだけでは十分ではありません。
何が欠けているのでしょうか? モルガン・スタンレーの元グローバルリサーチ責任者、フアン・ルイス・ペレス氏によると、欠けているのはコミュニケーションです。これこそが AI が解決しなければならない真の問題なのです。
AI は数千の金融商品を数秒で分析できます。数字、過去の収益、リスクを把握しています。しかし、人間を理解するとなると、話は別です。
AI は、投資家としての私たちを定義する個人的な物語や期待の変化を捉えることはできません。なぜなら、人間の投資 (機関投資家であっても) はデータに関するものではないからです。
それは感情、貯蓄、支出、投資の決定、そして長期計画に関するものです。これらは非常に個人的なものであり、人間のアドバイザーでさえ理解するのに苦労することがあります (時々)。
では、ロボアドバイザーはどのようにすればよいのでしょうか。ほとんどの顧客が、結局、株式と債券を 60/40 で構成する従来のポートフォリオに落ち着くのも不思議ではありません。それがデフォルトです。それを理解するために AI は必要ありません。
本当の進歩を遂げるには、AI はもっと賢くなる必要があります。一般的な推奨を出すだけでなく、アドバイザーの働きを理解する必要があります。同じ商品を何度も推奨するだけでは不十分です。
AI は顧客とのやり取りから学習する必要があります。AI がポートフォリオを簡単な言葉で説明できない場合、誰も AI を信頼することはないでしょう。
分散化が鍵
資産運用会社は今、岐路に立たされています。AIが本当に役立つためには、アドバイザーと顧客の両方に力を与える必要があります。
つまり、プロセスを分散化し、アドバイザーが AI ツールを使用してより適切な判断を下せるようにするということです。利益率の高い商品を売り込もうとしている最高投資責任者 (CIO) が策定した中央集権的な計画に従うことではありません。
実際、意思決定を分散化すると、それらの製品を販売しようとする企業のプロセスが複雑になる可能性があります。コンプライアンスとリスクも課題です。
将来的には、AI との会話が人間に近いものになるかもしれません。大規模言語モデル (LLM) と AI エージェントは、私たちのデジタル フットプリントから学習することで状況を変える可能性があります。
これらの AI システムは、私たちの生活から十分なコンテキストを取得し、状況の変化に応じて私たちが何を望んでいるかを予測します。理論的には、これにより資産管理がより効率的になる可能性があります。
しかし、本当に誰が自分の最も個人的な情報を機械に渡すのでしょうか? 必要な信頼のレベルは、非常に高いのです。
しかし、シリコンバレーが AI を新たな高みへと押し上げ続ければ、顧客とスムーズでリアルな会話ができるロボットエージェントがすぐに登場してくるかもしれません。そして、それが実現すれば、すべてが変わるでしょう。
現在、世界最大の資産運用会社であるブラックロックは、すでに何年も AI を活用しています。同社は投資戦略を強化するために機械学習と大規模言語モデルを採用しています。
彼らはテーマ投資を効率化するために AI も使用しています。AI と人間の専門知識を組み合わせて、新興市場のテーマに基づいた株式バスケットを作成する「Thematic Robot」と呼ばれるツールがあります。
報告によると、これによりさまざまなセクターにわたる投資機会を見つけるプロセスがスピードアップし、効率が向上し、時間の無駄が減るという。
しかし、AI は絶対確実ではありません。繰り返しになりますが、これらのロボットにはラリー・フィンクのような熟練したポートフォリオ マネージャーのような判断力や微妙な理解力がありません。そのため、人間による監視は依然として不可欠です。
AI がミスを犯した場合、誰かがそれをキャッチする必要があります。AI 出力にエラーが発生する可能性があり、人間の介入がなければ、深刻な結果につながる可能性があります。理想的な設定とは、人間の専門知識と AI 主導の効率性の組み合わせです。