金融における人工知能に関するOECD-FSBラウンドテーブル(2024年5月22日、パリ)におけるネリー・リャン米国国内金融担当次官兼金融安定理事会脆弱性アセスメント常設委員会議長の発言
こんにちは、丸山満彦です。
2024.05.22にパリで開催された、金融における人工知能に関するOECD-FSBラウンドテーブにおけるネリー・リャン米国国内金融担当次官兼金融安定理事会脆弱性アセスメント常設委員会議長の発言が公表されていたので、メモです。
金融機関では、これからますますAIの利用が進むと思いますが、規制当局の方の見方の理解というのも重要ですよね...
・2024.07.04 Remarks on Artificial Intelligence in Finance
Remarks on Artificial Intelligence in Finance | 金融における人工知能に関する発言 |
Remarks by Nellie Liang, US Under Secretary for Domestic Finance, and Chair of the Financial Stability Board Standing Committee on Assessment of Vulnerabilities, at the OECD – FSB Roundtable on Artificial Intelligence in Finance, Paris, 22 May 2024. | 金融における人工知能に関するOECD-FSBラウンドテーブル(2024年5月22日、パリ)におけるネリー・リャン米国国内金融担当次官兼金融安定理事会脆弱性アセスメント常設委員会議長の発言。 |
I. INTRODUCTION | I. 序文 |
Thank you to the OECD and FSB for organizing today’s roundtable, Artificial Intelligence in Finance, and for inviting me to speak. | 本日の円卓会議「金融における人工知能」を企画し、私を講演に招いてくださったOECDとFSBに感謝する。 |
Artificial intelligence or “AI” has the potential to transform many aspects of our lives and society and, in the last year and a half, has captured our imaginations. But, like earlier waves of technology that offer great opportunities, it also brings challenges and fears. | 人工知能(AI)は、私たちの生活や社会の様々な側面を変革する可能性を秘めており、ここ1年半の間に、私たちの想像力をかきたててきた。しかし、大きなチャンスを提供する初期のテクノロジーの波のように、AIもまた課題や恐れをもたらしている。 |
Financial firms have been using some kinds of AI for many years. Yet recent advances in computing capacity and the latest developments in AI – like generative AI or GenAI – represent a dramatic step up in its capabilities. New AI models can ingest a wide range of data, generate content, and have a greater capacity to evolve on their own and automate decision making. These technologies are developing rapidly, and firms and regulators alike are still in the early stages of understanding how the newest AI models could be used by financial institutions. It is crucial that we continue to deepen our understanding of potential benefits and risks and to ensure that the regulatory framework keeps pace. This is a big undertaking. Events like today’s are an important part of building our understanding. | 金融会社は長年、ある種のAIを利用してきた。しかし、近年のコンピューティング能力の向上と、生成的AI(GenAI)のようなAIの最新開発により、その能力は飛躍的に向上している。新しいAIモデルは、さまざまなデータを取り込み、コンテンツを生成し、独自に進化して意思決定を自動化する能力を高めている。これらのテクノロジーは急速に発展しており、企業も規制当局も、最新のAIモデルが金融機構でどのように利用できるかを理解する初期段階にある。潜在的なメリットとリスクについて理解を深め、規制の枠組みが歩調を合わせていくことが極めて重要である。これは大きな仕事だ。本日のようなイベントは、我々の理解を深める上で重要な役割を果たす。 |
My remarks today will focus on how financial policymakers are learning about the use of new AI tools by financial firms, and what kinds of risks these tools could introduce to the financial system. Adoption of new technologies in finance is not new. Financial firms are innovating continuously in order to increase efficiencies and offer new services. Policymakers have experience with changing technologies and have developed regulatory frameworks focused on building guardrails, regardless of the underlying technology used. In other words, we are not starting from scratch in thinking about how to address the risks of AI while also allowing for the opportunities from it to be realized. The primary question today is whether new AI models are fundamentally distinct from existing technology or if they will be used in such a different way that the current regulatory frameworks are not sufficient or do not apply. | 本日の私の発言は、金融政策立案者が金融会社による新たなAIツールの利用についてどのように学んでいるのか、また、これらのツールが金融システムにどのようなリスクをもたらす可能性があるのかに焦点を当てる。金融における新技術の採用は目新しいものではない。金融会社は効率性を高め、新たなサービスを提供するために絶え間なく技術革新を行っている。政策立案者はテクノロジーの変化について経験を積んでおり、使用される基礎的テクノロジーに関係なく、ガードレールの構築に焦点を当てた規制の枠組みを開発してきた。言い換えれば、AIのリスクに対処する一方で、AIの機会を実現する方法をゼロから考えることはない。今日の主要な問題は、新しいAIモデルが既存のテクノロジーとは根本的に異なるものなのか、それとも現行の規制の枠組みが十分でない、あるいは適用されないほど異なる方法で使用されるのか、ということである。 |
With that framing in mind, I will start my remarks today with a characterization of the technology and how financial institutions use AI today. These current uses can help us think about how financial firms perceive their opportunities and how they may want to use AI in the future. I will then consider the potential risks and our financial regulatory framework for assessing and addressing these risks. I will end with some questions for this group to consider. | このような枠組みを念頭に置きながら、本日の私の発言は、AIのテクノロジーと、金融機構が現在どのようにAIを利用しているかという特徴付けから始めたい。このような現在の利用状況は、金融機関がどのようにAIを利用する機会を捉え、将来どのようにAIを利用したいと考えるかを考える上で参考になる。次に、潜在的なリスクと、これらのリスクをアセスメントし、対処するための金融規制の枠組みについて考えてみたい。最後に、このグループの皆さんに考えていただきたいことをいくつか挙げて終わりにする。 |
II. DEFINING AI | II. AIの定義 |
Artificial intelligence is a broad concept and resists a precise definition. Here, I will use AI to describe any system that generates outputs – which can be forecasts, content, predictions, or recommendations – for a given set of objectives. From this conceptual framing of what AI systems do, we can think about the underlying technology as falling into three categories: “early” artificial intelligence, machine learning, and newer generative AI models. These categories roughly track the order in which they were developed, but many AI models combine elements across these three categories. | 人工知能は広範な概念であり、正確な定義は難しい。ここでは、与えられた目的に対して、予測、コンテンツ、予測、推奨などのアウトプットを生成するシステムをAIと呼ぶことにする。このような概念的な枠組みから、AIシステムは3つのカテゴリーに分類されると考えることができる: 「初期の」人工知能、機械学習、そして新しい生成的AIモデルだ。これらのカテゴリーは、開発された順番にほぼ沿っているが、多くのAIモデルはこれら3つのカテゴリーにまたがる要素を組み合わせている。 |
First, early AI describes rule-based models. Many computer programming languages are basically rules-based AI and have been used since the 1970s. Generally, these systems solve problems using specific rules applied to a defined set of variables. We have all experienced customer service that uses a rule-based AI. We ask a question that leads to pre-defined follow-up questions, until we get a pre-packaged answer or press zero enough times that we can talk to a human. Internal loss forecasting models or early algorithmic trading, for example, also might be considered forms of early artificial intelligence. We are very familiar with these kinds of tools in finance. | まず、初期のAIはルールベースのモデルを記述している。多くのコンピューター・プログラミング言語は基本的にルールベースのAIであり、1970年代から使われている。一般的に、これらのシステムは、定義された変数のセットに適用される特定のルールを使って問題を解決する。私たちは皆、ルールベースのAIを使ったカスタマーサービスを経験したことがある。事前に定義されたフォローアップの質問につながる質問をし、事前にパッケージ化された回答が得られるか、人間と話せるようになるまでゼロを何度も押す。例えば、社内の損失予測モデルや初期のアルゴリズム取引も、初期の人工知能の一形態と言えるかもしれない。私たちは金融業界において、この種のツールに非常に慣れ親しんでいる。 |
Second, in contrast to rules-based systems, machine learning identifies relationships between variables without explicit instruction or programming. In machine learning, data are the key input and the system identifies patterns from the data. Learning can be reinforced, for example, by providing feedback to the system about whether the output is good or bad. From this feedback, the machine learning model can learn to perform better in the future. Machine learning is also embedded into many existing processes for financial institutions. For example, it has long been used to develop fraud detection tools. Machine learning also enables the mobile banking app on your phone to read handwritten checks. | 第二に、ルールベースのシステムとは対照的に、機械学習は明示的な指示やプログラミングなしに変数間の関係を識別する。機械学習では、データが重要な入力であり、システムはデータからパターンを特定する。学習は、例えば出力の良し悪しをシステムにフィードバックすることで強化することができる。このフィードバックから、機械学習モデルは将来より良いパフォーマンスを発揮できるように学習することができる。機械学習は、金融機関の多くの既存プロセスにも組み込まれている。例えば、不正検知ツールの開発には以前から使われている。機械学習は、携帯電話のモバイルバンキングアプリが手書きの小切手を読み取ることも可能にしている。 |
The latest AI models can be characterized by their ability to generate new content – from text to images to videos. Instead of being limited to a defined set of potential responses in a defined format, GenAI can produce a range of responses in a range of formats. For example, “Give me recommendations for where to eat in Paris but composed as a poem in iambic pentameter.” These models are flexible and often dynamic, learning from experience in generating responses and through ingesting new information. More advanced AI systems, which are still being developed, aim to be highly autonomous with capabilities that match or exceed human abilities. | 最新のAIモデルの特徴は、テキストから画像、動画に至るまで、新しいコンテンツを生成する能力にある。GenAIは、定義された形式の潜在的な回答のセットに制限される代わりに、様々な形式の様々な回答を生成することができる。例えば、"パリで食事をするのにおすすめの場所を教えてください。ただし、イアンビック・ペンタメーターの詩として構成してください "といった具合だ。これらのモデルは柔軟で、しばしば動的であり、応答を生成する際に経験から学習し、新しい情報を摂取する。より高度なAIシステムは現在も開発中だが、人間の能力と同等かそれ以上の能力を持つ高度に自律的なシステムを目指している。 |
III. USE OF AI | III. AIの利用 |
Our experience with earlier technological changes can help us understand how financial institutions might be approaching newer artificial intelligence and give us insights into its potential benefits and opportunities. | これまでの技術的変化の経験は、金融機関が新しい人工知能にどのように取り組んでいるかを理解し、その潜在的なメリットや機会について洞察するのに役立つ。 |
I’ll start with a few thoughts on where we might see these benefits. | まず、どのような場面で人工知能の利点を享受できるかについて、いくつか考えてみたい。 |
First, what are the best use cases? Many use cases stem from AI’s ability to better process volumes and types of information that otherwise may be impractical or impossible to analyze. In the context of financial firms, AI can be used for two purposes: First, AI can be used to reduce costs or risks, and increase productivity, such as by automating some back-office functions or providing routine customer service. For example, by analyzing a broader array and amount of data, AI may be able to identify patterns that suggest suspicious activity. Second, AI can be used to develop new products, such as more tailored services. For example, by processing more data from more sources to better understand their customers, AI may enable greater customization of customer’s online financial experiences.1 | まず、最適なユースケースとは何か?多くのユースケースは、そうでなければ分析が現実的でなかったり、不可能であったりするような量や種類の情報を、よりうまく処理するAIの能力に由来している。金融会社の文脈では、AIは2つの目的で使用することができる: 第一に、AIはコストやリスクを削減し、バックオフィス機能の自動化や日常的な顧客サービスのプロバイダなど、生産性を向上させるために利用できる。例えば、より広範で大量のデータを分析することで、AIは不審な行動を示唆するパターンを特定できるかもしれない。第二に、AIは、よりカスタマイズされたサービスなど、新商品の開発に利用できる。例えば、より多くのデータをより多くのソースから処理し、顧客をよりよく理解することで、AIは顧客のオンライン金融体験をよりカスタマイズできるようになるかもしれない1。 |
That said, because AI is largely a function of the data it is trained on, not all AI tools are equally well suited to each kind of task. For example, large language models, by definition, are trained primarily with language. As a result, they may be better suited to language-based tasks like customer service than a task like assessing Value-at- risk, and many financial institutions are exploring use of large language models to support customer chatbots.2 | とはいえ、AIは学習させるデータの機能によるところが大きいため、すべてのAIツールがそれぞれのタスクに同じように適しているわけではない。例えば、大規模な言語モデルは、定義上、主に言語を使って学習される。その結果、バリュー・アット・リスクのアセスメントのようなタスクよりも、顧客サービスのような言語ベースのタスクに適している可能性があり、多くの金融機関が顧客チャットボットをサポートするために大規模な言語モデルの使用を検討している2。 |
Second, what are the development and adoption costs? AI tools may require significant investment – for example, to develop or purchase the tool, or invest in computational resources. While some operational costs have fallen and computing capacity has expanded, resource demands will be an important consideration for the kinds of use cases that firms are pursuing or prioritizing. At the same time, there could be costs of falling behind competitors who use AI to improve their services. | 第二に、開発・導入コストはどの程度か。例えば、ツールの開発や購入、計算リソースへの投資などである。一部の運用コストは低下し、コンピューティング能力は拡大しているが、リソース需要は、企業が追求または優先するユースケースの種類にとって重要な考慮事項となる。同時に、AIを活用してサービス改善を図る競合他社に遅れをとることで、コストが発生する可能性もある。 |
In addition, financial institutions also need to work within appropriate governance structures and risk appetite boundaries. For example, if a tool were to replace human operators, how costly would a mistake be from not involving active human intervention? If a tool does not replace a human operator, would there still be productivity gains? | さらに、金融機関は適切なガバナンス構造とリスク選好の境界の中で取り組む必要もある。例えば、ツールが人間のオペレーターに取って代わるとしたら、人間の積極的な介入を伴わないことによるミスのコストはどの程度になるのだろうか。ツールが人間のオペレーターに取って代わらない場合、生産性は向上するのだろうか? |
We do not have a full picture of the ways that various financial institutions are using AI. The FSB’s work in 2017 highlighted many, now relatively mature, uses, such as credit underwriting and trading execution. More recently, many authorities are conducting surveys and requesting public input as well as talking directly to firms. From this work, we see AI being used in three primary areas. First, AI is being used to automate back-office functions and aid compliance. Fraud and illicit finance detection tools are an example of this. Second, AI is being used for some customer facing applications, like customer service chatbots. Finally, some financial institutions are looking for ways to incorporate AI into their product offerings. Some of these applications are familiar – like trading strategies – but are relying more on AI than they have in the past.3 Some hedge funds advertise that their strategies are based entirely on predictive AI, while previously AI might have been used to inform human decisionmakers. In other cases, AI has resulted in new types of products. For example, some insurance brokers are experimenting with new software to help their clients, such as to manage supply chain risk, based on satellite imagery processed by AI.4 | 我々は、様々な金融機関がAIをどのように活用しているのか、その全体像を把握していない。2017年のFSBの作業では、信用引受や取引執行など、現在では比較的成熟した多くの利用方法が取り上げられた。さらに最近では、多くの認可当局が調査を実施し、一般からの意見を求めるだけでなく、企業と直接話をするようになっている。こうした作業から、AIは主に3つの分野で活用されていると考えられる。第一に、AIはバックオフィス機能を自動化し、コンプライアンスを支援するために使用されている。詐欺や不正資金検知ツールはその一例である。第二に、AIは顧客サービスのチャットボットなど、顧客と対面するアプリケーションに利用されている。最後に、一部の金融機構はAIを自社の商品提供に組み込む方法を模索している。これらのアプリケーションの中には、取引戦略のような馴染みのあるものもあるが、従来よりもAIに依存するようになっている3。一部のヘッジファンドは、自社の戦略がすべて予測AIに基づいていると宣伝しているが、以前はAIが人間の意思決定者に情報を提供するために使われていたかもしれない。また、AIが新しいタイプの商品を生み出すケースもある。例えば、一部の保険ブローカーは、AIによって処理された衛星画像に基づき、サプライチェーン・リスクマネジメントなど、顧客を支援するための新しいソフトウェアを実験的に導入している4。 |
It is still early days, but firms are pursuing a wide range of strategies for how to use new AI tools. They appear to be proceeding cautiously, especially when experimenting with GenAI, and at the same time making changes to internal governance.5 Some fintech firms that are subject to less regulation may be proceeding more quickly. | まだ始まったばかりだが、各社は新しいAIツールの活用方法について幅広い戦略を追求している。特にGenAIを使った実験では、慎重に進めているように見えるが、同時に内部ガバナンスの変更も行っている5。 |
IV. RISKS | IV. リスク |
As these use cases highlight, AI may offer significant benefits to financial institutions in reducing costs and generating revenue. But as financial institutions explore new ways to benefit from AI, policymakers and financial institutions alike must consider the potential broader risks. We can consider these risks across a few categories – first, risks to individual financial institutions,; second, risks to the broader financial system; third, changes in the competitive landscape; and finally, implications for consumers and investors. | これらのユースケースが強調するように、AIは金融機関にとって、コスト削減や収益創出において大きなメリットをもたらす可能性がある。しかし、金融機関がAIから利益を得る新たな方法を模索する際には、政策立案者も金融機関も同様に、潜在的な広範なリスクを考慮しなければならない。第一に、個々の金融機関にとってのリスク、第二に、より広範な金融システムにとってのリスク、第三に、競争環境の変化、最後に、消費者と投資家にとっての影響である。 |
Risks to Financial Institutions - Microprudential considerations | 金融機関のリスク-マイクロプルーデンス上の懸念 |
A key risk for financial institutions using AI tools is model risk. Model risk refers to the consequences of poor design or misuse of models. Addressing model risk includes managing data quality, design, and governance. The data, design and governance of models are critical components of effective and safe development of AI, and its use. For example, it is important to consider where limitations in data can skew a model’s outputs. Models trained on historical data will, by definition, be informed only by the historical examples of stress or outlier events contained in the underlying data. While these types of events stand out in our memories, they are relatively few and unlikely to be repeated in the same ways. This limitation means that some models that could be used for trading may be less robust or predictive in future periods of stress. | AIツールを利用する金融機関にとって重要なリスクは、モデル・リスクである。モデルリスクとは、モデルの不適切な設計や誤用がもたらす結果を指す。モデルリスクへの対応には、データの品質、設計、ガバナンスのマネジメントが含まれる。モデルのデータ、設計、ガバナンスは、AIの効果的かつ安全な開発、およびその利用に不可欠な要素である。例えば、データの制限がモデルの出力を歪める可能性がある場所を考慮することが重要である。過去のデータに基づいて訓練されたモデルは、定義上、基礎データに含まれるストレスや異常値事象の過去の例によってのみ情報を得ることになる。このようなタイプの事象は私たちの記憶の中では際立っているが、その数は比較的少なく、同じことが繰り返される可能性は低い。この限界は、トレーディングに使用可能なモデルでも、将来のストレス期にはロバスト性や予測性が低下する可能性があることを意味する。 |
It is also critical to consider how the model is being used. Even if a model is well designed, it can present risks if used or interpreted inappropriately. As firms become more comfortable with AI models and outputs, it may become easy to forget to question the models’ underlying assumptions or to conduct independent analysis. We have seen these kinds of dependencies in the past. For example, prior to the financial crisis, banks and market participants relied on credit rating agencies to an extent that reduced their capacity for independent assessments.6 Newer AI tools may create or exacerbate some of these existing challenges for governance and oversight. These tools can be less clear in their reasoning, more dynamic, and more automatic. For example, the speed and independence of some AI tools exacerbates the problem of overreliance as the opportunity for human intervention may be very short. This is particularly true for applications like trading strategies because of the speed required. | モデルがどのように使われているかを考慮することも重要である。モデルがうまく設計されていたとしても、不適切に使用されたり解釈されたりすればリスクをもたらす可能性がある。企業がAIのモデルやアウトプットに慣れるにつれ、モデルの基礎となる仮定を疑ったり、独立した分析を行うことを忘れがちになるかもしれない。このような依存関係は過去にも見られた。例えば、金融危機以前、銀行や市場参加者は、独立したアセスメント能力を低下させる程度まで信用格付け機関に依存していた6。これらのツールは、推論が明確でなく、よりダイナミックで、より自動的である可能性がある。例えば、一部のAIツールのスピードと独立性は、人間が介入する機会が非常に短い可能性があるため、過信の問題を悪化させる。特に、取引戦略のようなアプリケーションでは、スピードが要求されるため、この傾向が強い。 |
Relatedly, use of AI tools may increase reliance on vendors and critical service providers. While the use of third parties can offer financial institutions significant benefits, these dependencies can introduce some risks. For example, AI tools require significant computing power and may increase reliance on a relatively small number of cloud service providers. There is likely less visibility into the AI tools developed by vendors than those developed in house. | 関連して、AIツールの使用はベンダーや重要なサービスプロバイダーへの依存を高める可能性がある。サードパーティーの利用は金融機構に大きなメリットをもたらす可能性がある一方で、こうした依存はいくつかのリスクをもたらす可能性がある。例えば、AIツールは大きなコンピューティング・パワーを必要とし、比較的少数のクラウド・サービス・プロバイダへの依存を高める可能性がある。ベンダーが開発したAIツールの可視性は、自社で開発したものよりも低い可能性が高い。 |
Operational risks related to AI may also come from outside the financial institution. These include AI-enabled cyber-attacks, fraud, and deep fakes. Widely available GenAI tools are already expanding the pool of adversaries and enabling all adversaries to become more proficient. While the tactics are often not new – like phishing – they have become more effective and efficient in the last year. For example, in a reported incident earlier this year, an employee of a multinational financial institution was tricked into transferring $25 million after attending a video conference call with an AI deepfake of the firm’s chief financial officer.7 | AIに関連する運用リスクは、金融機関の外部からもたらされる可能性もある。これには、AIを利用したサイバー攻撃、詐欺、ディープフェイクなどが含まれる。広く利用可能なGenAIツールは、すでに敵対者のプールを拡大し、すべての敵対者がより熟練することを可能にしている。手口はフィッシングのように目新しいものではないことが多いが、昨年はより効果的かつ効率的になっている。例えば、今年初めに報告されたインシデントでは、ある多国籍金融機関の従業員が、同社の最高財務責任者のAIディープフェイクとのビデオ電話会議に出席した後、騙されて2,500万ドルを送金させられた7。 |
Financial Stability and Macroprudential Considerations | 財務安定性とマクロプルーデンス上の懸念 |
We should also consider whether AI use by financial firms could present financial stability risks – that is, risks to the broader financial system. For example, AI models may introduce or amplify interconnections among financial firms if model outputs are more highly correlated because they rely on the same data sources, or if firms are using the same model. In some cases, one model’s output may be an input to another model. These interconnections may exacerbate herding behavior or procyclicality. Where models inform trading strategies that are executed automatically, incidents like flash crashes may be more likely. Complexity and opacity are also of concern. To the extent that models are not transparent in their reasoning or rely on a wider range of data, it is difficult to predict how models might perform. | 金融会社によるAIの利用が、金融の安定性リスク、すなわち、より広範な金融システムに対するリスクをもたらす可能性があるかどうかも考慮すべきである。例えば、AIモデルは、同じデータ・ソースに依存しているため、モデルの出力がより高い相関性を持つ場合、あるいは金融機関が同じモデルを使用している場合、金融機関間の相互連関を導入または増幅する可能性がある。場合によっては、あるモデルの出力が別のモデルの入力になることもある。このような相互関連は、ハーディング行動やプロシクリカリティを悪化させる可能性がある。モデルが取引戦略に情報を与え、それが自動的に実行される場合、フラッシュ・クラッシュのようなインシデントが発生しやすくなるかもしれない。複雑さと不透明さも懸念される。モデルの推論が透明でなかったり、より広範な データに依存していたりする限り、モデルがどのように機能するかを予測 することは難しい。 |
Changes in Competitive Landscape | 競争環境の変化 |
AI has the potential to change the competitive landscape of financial services. This could happen in one of several ways. First, the significant investments of computing power and data required to develop AI models may advantage certain institutions over others. Small institutions with less access to data may be disadvantaged in their ability to develop or access AI. Institutions that have not migrated to cloud services may be less able to access or use AI. Alternatively, it is possible that the investments needed to develop AI models are so significant that financial institutions converge on a single model, thus leveling the playing field between large and small institutions. | AIは金融サービスの競争環境を変える可能性を秘めている。これはいくつかの方法で起こりうる。第一に、AIモデルの開発に必要なコンピューティング・パワーとデータの多大な投資により、特定の機構が他の機構よりも有利になる可能性がある。データへのアクセスが少ない小規模な機構は、AIを開発したりアクセスしたりする能力で不利になるかもしれない。クラウドサービスに移行していない機構は、AIへのアクセスや利用が不利になるかもしれない。あるいは、AIモデルを開発するために必要な投資額があまりに大きいため、金融機関が単一のモデルに収斂し、大企業と中小企業の間の競争条件が平準化される可能性もある。 |
In addition, competitive dynamics outside of financial institutions may be relevant. AI tools and the cloud services that these tools depend on are being developed most intensively by a handful of companies that are not themselves financial institutions. AI may also bring new entrants into financial services, including technology providers that may be looking to make use of data collected in other contexts. | さらに、金融機関以外の競争力学も関係するかもしれない。AIツールやそのツールに依存するクラウドサービスは、金融機関ではない一握りの企業によって最も集中的に開発されている。AIはまた、他の文脈で収集されたデータの活用を目指すテクノロジープロバイダーを含め、金融サービスへの新規参入をもたらすかもしれない。 |
Consumers and Investors | 消費者と投資家 |
In my remarks today, I have focused mostly on the impact of AI on financial institutions and the financial system, but I would like to spend a few moments on the potentially significant implications for consumers and investors, as well. | 本日の発言では、AIが金融機関や金融システムに与える影響に焦点を当ててきたが、消費者や投資家にとっても重要な意味を持つ可能性があることについて、少し触れておきたい。 |
We can think of these implications along two lines. First, while data have always been critical to financial services, AI further intensifies this demand for data. As a result, AI may amplify existing concerns regarding data privacy and surveillance. And, if data are collected, it must be stored, raising data security concerns. | このような影響は2つの線で考えることができる。第一に、金融サービスにとってデータは常に重要であったが、AIはデータに対する需要をさらに高める。その結果、AIはデータ・プライバシーや監視に関する既存の懸念を増幅させる可能性がある。また、データを収集すれば、それを保存しなければならず、データ・セキュリティ上の懸念が高まる。 |
Second, the outputs of AI tools have significant implications for consumers and investors. Lenders using AI models may be able to develop a more comprehensive picture of creditworthiness by using many times more variables, including data from less traditional sources.8 Investment advisors are also experimenting with use of machine learning or predictive AI to provide more tailored advice. A particular area of concern, however, is the potential for AI tools to perpetuate bias. Historical data – whether used in traditional modeling or AI – embeds historically biased outcomes. A lender’s reliance on such historical data may be particularly problematic if the reasoning of a model is not clear, and if a decision may result in a consumer being denied service or credit in wrongful ways. In addition, with more and varied data being used, consumers will face challenges in correcting inaccuracies in their data. It is also important to take care that alternative sources of data, which may be less transparent and obscure embedded biases, are not proxies for race, gender, or ethnicity. | 第二に、AIツールのアウトプットは、消費者や投資家にとって重要な意味を持つ。投資アドバイザーもまた、機械学習や予測AIの活用を試みており、よりオーダーメイドのアドバイスを提供している。しかし、特に懸念されるのは、AIツールがバイアスを永続させる可能性である。過去のデータは、伝統的なモデリングで使われるにせよ、AIで使われるにせよ、歴史的にバイアスのかかった結果を埋め込む。モデルの根拠が明確でない場合、また、ある決定が不当な方法で消費者のサービスや信用を拒否する結果をもたらす可能性がある場合、貸金業者がそのような過去のデータに依存することは特に問題となる可能性がある。加えて、より多くの多様なデータが利用されるようになれば、消費者はデータの不正確さを修正する際の課題に直面することになる。また、透明性が低く、埋め込まれたバイアスが不明瞭な代替データ源が、人種、性別、民族性の代用とならないように注意することも重要である。 |
V. FRAMEWORK FOR ADDRESSING RISKS | V. リスクに対処するための枠組み |
Many of the risks that I have described are familiar to financial regulators. When we consider how best to assess and mitigate financial risks posed by new AI developments, again, we are not starting from scratch. For example, principles of model risk management establish a framework for model design, governance, audit, and data quality. Principles of third-party risk management address risks associated with vendors and other critical service providers. Fair lending, fair credit, and data privacy laws are designed to address risks to consumers, and securities laws are designed to protect investors. Likewise, AI tools used for compliance, such as for AML/CFT compliance, must fit these regulatory requirements. While this framework is not specific to AI technology, it applies to AI and is designed to address risks regardless of the technology used. | これまで述べてきたリスクの多くは、金融規制当局にとって馴染み深いものである。新たなAI開発によってもたらされる金融リスクをどのようにアセスメントし、軽減するのが最善かを検討する際、やはりゼロから始めるわけではない。例えば、モデルリスク・マネジメントの原則は、モデル設計、ガバナンス、監査、データ品質に関する枠組みを確立するものである。サードパーティリスク管理の原則は、ベンダーやその他の重要なサービス・プロバイダーに関連するリスクに対処するものである。公正貸付法、公正信用法、データ・プライバシー法は消費者のリスクに対処するために設計されており、証券法は投資家を保護するために設計されている。同様に、AML/CFTコンプライアンスなどのコンプライアンスに使用されるAIツールは、これらの規制要件に適合していなければならない。このフレームワークはAI技術に特化したものではないが、AIに適用され、使用される技術に関係なくリスクに対処するように設計されている。 |
It is from this starting point that we consider whether AI presents risks that are not adequately addressed in the existing framework. These risks could be of the same type, but of greater magnitude, or they may be entirely new types of risks. The technology is developing rapidly, and we should work to ensure that the policy framework is keeping pace. To that end, I would like to conclude by posing several questions to help guide this discussion: | このような出発点から、既存の枠組みでは十分に対処できないリスクがAIに存在するかどうかを検討する。これらのリスクは、同じ種類のリスクであっても、より大きなリスクである可能性もあるし、まったく新しい種類のリスクである可能性もある。テクノロジーは急速に発展しており、我々は政策の枠組みが遅れを取らないよう努力すべきである。そのために、この議論の指針となるようないくつかの質問を投げかけて終わりにしたい: |
First, where might AI amplify some known, familiar risks? For example, we have long understood the importance of data quality in modeling credit and market risk. Because AI relies on more and more different types of data, these concerns may be amplified. | 第一に、AIが既知の身近なリスクを増幅させる可能性はどこにあるのか?例えば、信用リスクや市場リスクのモデリングにおけるデータの質の重要性については、以前から理解している。AIはより多くの異なる種類のデータに依存するため、こうした懸念が増幅される可能性がある。 |
Second, does AI present different kinds of risks? It may also be that AI presents categorically different types of risks. For example, AI acts according to defined objectives and it may be challenging to specify all relevant objectives. You may want AI to maximize profit, but within legal and ethical boundaries that can be difficult to define completely. If an AI model acts on its own and is capable of updating its reasoning with no human intervention, this may undermine accountability for wrongdoing or errors. | 第二に、AIは異なる種類のリスクをもたらすのだろうか。また、AIはカテゴリーごとに異なる種類のリスクをもたらす可能性もある。例えば、AIは定義された目的に従って行動するが、関連する目的をすべて特定するのは難しいかもしれない。AIが利益を最大化することを望むかもしれないが、完全に定義することが難しい法的・倫理的な境界線の範囲内であればよい。AIモデルが独自に行動し、人間の介入なしに推論を更新できる場合、不正行為やエラーに対する説明責任が損なわれる可能性がある。 |
Third, are there changes in the competitive landscape that could have implications for the regulatory framework? AI may change the competitive landscape. These changes could occur both among financial companies – for example, firms with greater access to data or to computational power may be better positioned to compete. It could also occur between financial and non-financial companies, as some nonfinancial firms already have significant access to data and computing power, and have shown some interest in providing financial services directly. If this shifting landscape affects the ability to address risks in the financial sector, what adjustments should be considered, for example, for certain kinds of institutions or certain kinds of relationships? | 第三に、規制の枠組みに影響を及ぼしうる競争環境の変化はあるか?AIは競争環境を変える可能性がある。例えば、データへのアクセスや計算能力が高い企業は、競争上有利な立場になるかもしれない。また、非金融会社の中には、すでにデータや計算能力への大きなアクセスを持っており、金融サービスを直接プロバイダとして提供することに関心を示しているところもあるからだ。このような状況の変化が、金融セクターのリスク対応能力に影響を及ぼすとすれば、例えば、特定の種類の機構や特定の種類の関係について、どのような調整を検討すべきであろうか。 |
Finally, what are the opportunities for financial regulators and other authorities to use AI? It is still early days for policymakers too. We are exploring opportunities to identify data anomalies to counter illicit finance and fraud, and to find better ways for the private sector to build more comprehensive databases to improve fraud detection.9 This is a high value proposition with a manageable risk if we work together across the public and private sectors. We might also consider what are other possible use cases and what considerations should guide those use cases. | 最後に、金融規制当局やその他の認可機関がAIを活用する機会はどのようなものだろうか。政策立案者にとっても、まだ日が浅い。私たちは、不正資金や不正行為に対抗するためにデータの異常を特定する機会や、不正行為の検知を改善するために民間部門がより包括的なデータベースを構築するためのより良い方法を模索中である9。また、他にどのようなユースケースが考えられるか、そのユースケースを導くにはどのような配慮が必要かを検討することもできるだろう。 |
There are certainly other questions that could be asked now and certainly more to come for policymakers as AI technology continues to develop. Events like these and the ongoing work of the FSB and OECD are critical to deepen our understanding of the potential uses of AI by financial institutions and to ensuring that our policy framework keeps pace with technological change. | AI技術が発展し続ける中、政策立案者にとっては、現在も、そしてこれからも、さらに多くの疑問が投げかけられるに違いない。今回のようなイベントや、FSBやOECDが現在進めている作業は、金融機関によるAIの潜在的な利用について理解を深め、我々の政策枠組みが技術革新に遅れないようにするために極めて重要である。 |
Thank you. | ありがとう。 |
1. See, e.g., Dynamic Customer Embeddings for Financial Service Applications [←] | 1. 例えば、Dynamic Customer Embeddings for Financial Service Applications [←]を参照のこと。 |
2. See Chatbots in consumer finance | Consumer Financial Protection Bureau [←] | 2. 消費者金融におけるチャットボット|消費者金融保護局[←]を参照のこと。 |
3. See e.g., MIT-UBS-generative-AI-report_FNL.pdf [←] | 3. 例えば、MIT-UBS-generative-AI-report_FNL.pdf [←]を参照のこと。 |
4. See e.g., Marsh McLennan launches AI-powered solution to transform supply chain risk management [←] | 4. 例えば、Marsh McLennan launches AI-powered solution to transform supply chain risk management [←] を参照のこと。 |
5. 2023 IIF-EY Survey Report on AI_ML Use in Financial Services - Public Report - Final.pdf [←] | 5. 2023 IIF-EY 金融サービスにおけるAI_ML利用に関する調査報告書 - 公開報告書 - Final.pdf [←] を参照のこと。 |
6. See Reducing Reliance on Credit Ratings - Financial Stability Board [←] | 6. 信用格付けへの依存を減らす-金融安定理事会【←】を参照のこと。 |
7. See Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector [←] | 7. 金融サービスセクターにおける人工知能特有のサイバーセキュリティリスクのマネジメント [←] を参照。 |
8. See Assessing the Impact of New Entrant Non-bank Firms on Competition in Consumer Finance Markets [←] | 8. 消費者金融市場における新規参入ノンバンクの競争へのアセスメント [←] を参照。 |
9. Managing Artificial Intelligence-Specific Cybersecurity Risks in the Financial Services Sector [←] | 9. 金融サービスセクターにおける人工知能特有のサイバーセキュリティ・リスクのマネジメント [←] を参照。 |
« SECのルールの改正によるサイバーセキュリティ開示 (20-F) 三井住友ファイナンシャル、ORIX、みずほファイナンシャル、野村、タケダ、ソニー、トヨタ、ホンダの場合 (MUFGも追加) | Main | ISMS-AC ISMS適合性評価制度に関するアンケート調査報告書 »
Comments