« 個人情報保護委員会 EDPBが2023年3月28日に採択した「個人データ侵害通知に関するガイドライン09_2022」の仮訳 (2023.12.08) | Main | NIST SP 800-79 Rev.3(初期公開ドラフト)PIV カードおよび派生 PIV クレデンシャル発行者の認可に関するガイドライン »

2023.12.15

連邦政府テクノロジー・リーダーがOMBのAI政策ドラフトについて知っておくべきことトップ10

こんにちは、丸山満彦です。

AI大統領令がでて、その後すぐにOMBのガイダンスが公表され、パブリックコメントが12月5日まで募集されていましたが、CIO.Govが、「連邦政府テクノロジー・リーダーがOMBのAI政策ドラフトについて知っておくべきことトップ10」を公表していますね。。。

最高AI責任者(CAIO)の設置が求められますが、それ以外も含めてわかりやすく?説明していますね。。。

 

1. What is in OMB’s proposed AI policy? 1. OMBのAI政策案には何が盛り込まれているのか?
2. What will Chief AI Officers be responsible for? How will the newly created Chief AI Officer role interact with CIOs, CDOs, and CTOs? 2. 最高AI責任者は何を担当するのか?新設されたAI最高責任者の役割は、CIO、CDO、CTOとどのように関わるのか?
3. How should CFO Act agencies ensure their AI Governance Body is sufficiently engaged with existing senior forums? 3. 3.CFO法の団体は、AIガバナンス機関が既存のシニアフォーラムと十分に連携していることをどのように確認すべきか?
5. How do I know if my use case impacts rights or safety? 5. 自分のユースケースが権利や安全に影響を与えるかどうかは、どうすればわかるのか?
6. How will OMB’s AI risk management requirements feed into my agency’s Authorization to Operate process? 6. OMBのAIリスクマネジメント要件は、どのように当局の認可プロセスに反映されるのか?
7. What will this policy mean for agencies’ use of generative AI? 7. この方針は、各機関の生成的AIの利用にとってどのような意味を持つのか?
8. What resources will be made available to help agencies with implementation? 8. 各機関が実施する際に、どのようなリソースが利用できるようになるのか?
9. Would this draft policy apply to contractors? 9. このドラフト方針は請負業者にも適用されるのか?
10. What happens next? 10. 次に何が起こるのか?

 

CIO.Gov

・2023.12.11 The Top 10 Things Federal Technology Leaders Should Know About OMB’s Draft AI Policy

The Top 10 Things Federal Technology Leaders Should Know About OMB’s Draft AI Policy 連邦政府テクノロジー・リーダーがOMBのAI政策ドラフトについて知っておくべきことトップ10
By Clare Martorana, Federal CIO, and Conrad Stosz, OFCIO Director of Artificial Intelligence クレア・マルトラナ連邦政府CIO、コンラッド・ストシュOFCIO人工知能担当ディレクター著
In October 2023, President Biden signed the landmark Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. We recognize that when AI is used to make decisions and take actions that have a consequential impact on the lives of individuals, the government has a distinct responsibility to identify and manage AI risks. A key action identified in the EO is for the Office of Management and Budget (OMB) to issue guidance on the Federal Government’s use of AI, positioning the U.S. to lead by example in the responsible use of this innovative technology. To deliver on this requirement, OMB issued draft AI implementation guidance Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence. 2023年10月、バイデン大統領は画期的な大統領令「14110:安全、確実、信頼できる人工知能の開発と利用」に署名した。我々は、AIが個人の生活に重大な影響を与える意思決定や行動に使用される場合、政府にはAIリスクを特定し管理する明確な責任があると認識している。EOで特定された重要な行動は、行政管理予算局(OMB)が連邦政府のAI利用に関するガイダンスを発行し、米国がこの革新的テクノロジーの責任ある利用において模範を示すことである。この要求を実現するため、OMBはAI導入ガイダンス草案「Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence」を発表した。
The draft policy outlines a series of actions to empower Federal agencies to leverage AI to improve government services and more equitably serve the American people. Below are the top 10 most pressing questions for the Federal senior technology officials that will play an instrumental role in the policy’s future implementation. ドラフト方針は、連邦政府機関がAIを活用して政府サービスを改善し、より公平に米国民にサービスを提供できるようにするための一連の行動の概要を示している。以下は、同政策の今後の実施に重要な役割を果たす連邦政府上級技術職員に対する、最も差し迫った質問トップ10である。
1. What is in OMB’s proposed AI policy? 1. OMBのAI政策案には何が盛り込まれているのか?
The draft guidance outlines three pillars to advance the responsible use of AI in government and proposed agency actions as outlined in the below table. ドラフト・ガイダンスでは、政府におけるAIの責任ある利用を促進するための3つの柱と、下表のような各機関の行動案が示されている。
Pillar / Examples of Proposed Agency Actions 柱/提案されている機関行動の例
Strengthen AI Governance AIガバナンスの強化
Designate Chief AI Officers holding primary responsibility for coordinating their agency's use of AI, promoting AI innovation, and managing risks from the use of AI. 各機関のAI活用の調整、AIイノベーションの推進、AI活用によるリスクマネジメントの第一義的責任を担うAI最高責任者を指名する。
Advance Responsible AI Innovation 責任あるAIイノベーションの推進
Remove barriers impacting responsible AI use and development of agency AI strategies for achieving enterprise-wide advances in AI maturity エンタープライズ全体のAI成熟度の向上を達成するために、責任あるAIの利用やエージェンシーのAI戦略の策定に影響を与える障壁を取り除く。
Manage Risks from the Use of AI AIの利用によるリスクをマネジメント
Adopt minimum AI risk management practices for AI uses that impact rights and safety 権利と安全に影響を与えるAIの利用について、最低限のAIリスクマネジメントを採用する。
Read additional details in the AI Implementation Guidance Fact Sheet. 詳細は、AI導入ガイダンス・ファクトシート(英語)を参照のこと。
2. What will Chief AI Officers be responsible for? How will the newly created Chief AI Officer role interact with CIOs, CDOs, and CTOs? 2. 最高AI責任者は何を担当するのか?新設されたAI最高責任者の役割は、CIO、CDO、CTOとどのように関わるのか?
Chief AI Officers (CAIOs) will hold primary responsibility in their agency for coordinating their agency’s use of AI, promoting AI innovation in their agency, and managing risks from their agency’s use of AI. Agencies have flexibility to either create a brand-new position to fill this role or designate an existing official to perform the Chief AI Officer’s responsibilities—provided the official has significant expertise in AI. For CFO Act agencies, the CAIO must be a position at the Senior Executive Service, Scientific and Professional, or Senior Leader level, or equivalent. In other agencies, the CAIO must be at least a GS-15 or equivalen. 最高AI責任者(CAIO)は、各機関におけるAI活用の調整、各機関におけるAIイノベーションの推進、各機関のAI活用によるリスクマネジメントの第一義的責任を担う。各機関は、この役割を担う新たな役職を設けるか、既存の職員をAI最高責任者の職務に任命するか(ただし、その職員がAIに関する重要な専門知識を有していることが条件)のいずれかを柔軟に選択することができる。CFO法の機関では、CAIOは上級管理職、科学・専門職、シニア・リーダー・レベル、またはそれに相当する役職でなければならない。その他の機関では、CAIOは少なくともGS-15またはそれに相当する役職でなければならない。
Cross-cutting work such as AI governance and risk management cannot be performed in a vacuum; Chief AI Officers will need to coordinate with other relevant officials, such as agency CIOs, CDOs, and CTOs. This is necessary for a number of reasons, but importantly, many existing teams already maintain the authorities, resources, and expertise to carry out the responsibilities identified for the Chief AI Officer. CIOs, CDOs, and CTOs will remain deeply involved in the strategic planning for, acquisition of, and delivery of AI within their agencies. The role of the Chief AI Officer will not replace their work, but rather, fill the gaps that such roles were not designed to address. This includes efforts to mitigate algorithmic discrimination and establish processes for individuals to appeal harms caused by government AI. AIガバナンスやリスクマネジメントのような分野横断的な業務は、孤立した状態で行うことはできない。AI最高責任者は、各機関のCIO、CDO、CTOなど、他の関連職員と調整する必要がある。これが必要な理由はいくつかあるが、重要なのは、既存の多くのチームが、AI最高責任者に特定された責任を遂行するための認可、リソース、専門知識をすでに保持していることだ。CIO、CDO、CTOは、各機関におけるAIの戦略的計画、獲得、提供に深く関与し続けるだろう。チーフAIオフィサーの役割は、彼らの仕事に取って代わるものではなく、むしろそのような役割が対処するように設計されていないギャップを埋めるものである。これには、アルゴリズムによる差別を緩和する取り組みや、政府AIによる被害を訴える個人のためのプロセスを確立する取り組みが含まれる。
3. How should CFO Act agencies ensure their AI Governance Body is sufficiently engaged with existing senior forums? 3. CFO法の団体は、AIガバナンス機関が既存のシニアフォーラムと十分に連携していることをどのように確認すべきか?
OMB’s draft memorandum would require CFO Act agencies establish AI Governance Boards to convene relevant senior officials at least quarterly to govern their agency’s use of AI. AI Governance Boards must be chaired by the Deputy Secretary, or equivalent, and vice-chaired by the agency’s Chief AI Officer. The board must also include appropriate representation from senior agency officials responsible for elements of AI adoption and risk management. OMBの覚書草案では、CFO法の政府機関に対し、少なくとも四半期に一度、関係する高官を招集し、政府機関のAI利用を管理するAIガバナンス委員会を設置することを求めている。AIガバナンス委員会の議長は副長官、またはそれに準ずる者が務め、副議長は政府AI最高責任者が務める。理事会には、AIの導入やリスクマネジメントの各要素を担当する機関の高官も適切に参加しなければならない。
Agencies would have the option to convene a new senior-level body or expand the remit of an existing governance body to meet the AI Governance Board requirements. Many agencies already convene senior officials to discuss issues tangential to AI, such as IT modernization, data governance, and privacy. Some agencies have also established groups dedicated to AI governance and innovation specifically. Rather than set up a separate body, agencies can leverage existing mechanisms—if they choose— easing the burden for implementation. 各団体は、AIガバナンス委員会の要件を満たすために、新たな上級レベルの組織を招集するか、既存のガバナンス組織の権限を拡大することができる。多くの政府はすでに、ITの近代化、データガバナンス、プライバシーなど、AIに関連する問題を議論するために上級官僚を招集している。また、AIガバナンスやイノベーションに特化したグループを設置している政府もある。別組織を設立するのではなく、団体が選択すれば、既存のメカニズムを活用することができ、導入の負担を軽減することができる。
4. Will my agency need to implement the identified AI risk management requirements every time AI is used? 4. AIを使用するたびに、識別されたAIリスクマネジメント要件を実施する必要があるのか?
No. AI has been increasingly integrated in benign software applications and everyday consumer products, such as noise-cancelling headphones and auto-correcting text messages. OMB’s proposed AI risk management requirements are only triggered when government AI use cases meet the definition for safety-impacting or rights-impacting. The draft policy takes a risk-based approach to managing AI harms, ensuring agency resources are well spent on AI use cases that pose the greatest risks to the rights and safety of the public. As a rule of thumb, when AI is used to control or meaningfully influence the outcomes of consequential actions or decisions, agencies will need to implement the memorandum’s risk management requirements. AIは、ノイズキャンセリングヘッドフォンや自動修正テキストメッセージなど、良質のソフトウェアアプリケーションや日常的な消費者向け製品にますます組み込まれている。OMBが提案するAIのリスクマネジメント要件は、政府によるAIのユースケースが、安全に影響を与える、あるいは権利に影響を与えるという定義を満たした場合にのみ発動される。このドラフト方針は、リスクベースのアプローチでAIの危害をマネジメントし、国民の権利と安全に最大のリスクをもたらすAIユースケースに、政府機関のリソースが適切に費やされることを保証する。経験則として、AIが結果的な行動や意思決定の結果をコントロールしたり、有意義な影響を与えたりするために使用される場合、各機関は覚書のリスクマネジメント要件を実施する必要がある。
5. How do I know if my use case impacts rights or safety? 5. 自分のユースケースが権利や安全に影響を与えるかどうかは、どうすればわかるのか?
OMB’s draft memorandum identifies two broad categories of AI: OMBの覚書草案では、AIを2つのカテゴリーに大別している:
・Rights-Impacting AI: AI whose output serves as a basis for decision or action that has a legal, material, or similarly significant effect on an individual’s or community’s civil rights, civil liberties, or privacy, equal opportunities, and/or access to critical resources or services; and ・権利に影響するAI:個人やコミュニティの市民権、市民的自由、プライバシー、機会均等、および/または重要な資源やサービスへのアクセスに、法的、重大、または類似の重大な影響を及ぼす意思決定や行動の根拠となる出力があるAI。
・Safety-Impacting AI: AI that has the potential to meaningfully impact the safety of human life or well-being, climate or environment, critical infrastructure, and/or strategic assets or resources. ・安全性に影響を与えるAI:人命や福利の安全、気候や環境、重要インフラ、戦略的資産や資源に重大な影響を与える可能性のあるAI。
These categories are further expanded upon in subsection 5(b) of the guidance, where OMB identifies specific purposes for which AI is automatically presumed to be safety-impacting or rights-impacting. This list is intended to reduce uncertainty—both for agencies and for the public—on when additional safeguards are warranted. これらのカテゴリーは、ガイダンスのサブセクション5(b)でさらに拡大されており、OMBは、AIが自動的に安全への影響または権利への影響と推定される特定の目的を特定している。このリストは、どのような場合に追加的な保護措置が正当化されるかについて、政府機関にとっても一般市民にとっても不確実性を減らすことを意図している。
6. How will OMB’s AI risk management requirements feed into my agency’s Authorization to Operate process? 6. OMBのAIリスクマネジメント要件は、どのように当局の認可プロセスに反映されるのか?
AI is software and therefore, it is still subject to an agency’s authorization process for information systems. OMB Circular A-130Managing Information as a Strategic Resource, directly and indirectly tasks agency CIOs with the responsibility to assess information systems for security and privacy risks. However, OMB’s draft guidance identifies a new category of risk to consider: risks from the use of AI. This primarily includes risks related to efficacy, safety, equity, fairness, transparency, accountability, appropriateness, or lawfulness of a decision or action resulting from the use of AI to inform, influence, decide, or execute that decision or action. AIはソフトウェアであるため、情報システムの認可プロセスの対象となる。OMB Circular A-130, Managing Information as a Strategic Resourceは、直接的、間接的に、情報システムのセキュリティとプライバシーのリスクを評価する責任を機関のCIOに課している。しかし、OMBのドラフト・ガイダンスでは、AI利用によるリスクという新たなカテゴリーを特定している。これには主に、AIの使用による意思決定や行動の有効性、安全性、公平性、公正性、透明性、説明責任、適切性、適法性に関連するリスクが含まれる。
When looking at the memorandum’s proposed AI risk management requirements, agencies would be directed to use existing processes wherever possible, like the Authorization to Operate process, to assess, manage, evaluate, and continuously monitor this new category of risk from the use of AI. This means when agencies review safety-impacting or rights-impacting AI via their ATO process, the Authorizing Official should collaborate with the Chief AI Officer and other appropriate AI oversight officials to assess the types of risks identified in this memorandum and ensure compliance. 覚書のAIリスクマネジメント要件案を見ると、各機関は、AIの使用から生じるこの新しいカテゴリーのリスクを評価、管理、評価、継続的に監視するために、認可プロセスのような既存のプロセスを可能な限り使用するよう指示されている。つまり、各機関がATOプロセスを通じて安全性に影響するAIや権利に影響するAIをレビューする場合、認可担当者はAI最高責任者(Chief AI Officer)およびその他の適切なAI監督担当者と協力し、本覚書で特定された種類のリスクを評価し、コンプライアンスを確保すべきである。
7. What will this policy mean for agencies’ use of generative AI? 7. この方針は、各期kんの生成的AIの利用にとってどのような意味を持つのか?
It is critical to ensure that the use of generative AI will not cause undue risk to the public. Agencies must ensure that adequate safeguards and oversight mechanisms are in place before generative AI is used. For example, in line with EO 14110, agencies should explore limited access policies to specific generative AI services based on specific risk assessments rather than implementing across the board bans. Additionally, some agencies have already established guidelines and limitations on the appropriate use of particular AI-enabled technologies, such as for facial recognition. Similar guidelines can be written for the responsible use of generative AI. 生成的AIの使用が国民に過度のリスクを引き起こさないようにすることは極めて重要である。各機関は、生成的AIが使用される前に、適切なセーフガードと監視メカニズムが導入されていることを確認しなければならない。例えば、EO14110に沿って、各機関は全面的な禁止を実施するのではなく、特定のリスクアセスメントに基づいて特定の生成的AIサービスへの限定的なアクセスポリシーを検討すべきである。さらに、顔認識など、特定のAI対応技術の適切な使用に関するガイドラインや制限をすでに定めている機関もある。生成的AIの責任ある使用についても、同様のガイドラインを作成することができる。
8. What resources will be made available to help agencies with implementation? 8. 各機関が実施する際に、どのようなリソースが利用できるようになるのか?
EO 14110 identifies a few actions that will directly assist agencies with implementation of OMB’s memorandum, once finalized. This includes: EO 14110は、OMBの覚書が最終決定された後、各機関の実施を直接支援するいくつかの行動を特定している。これには以下が含まれる:
Guidelines, tools, and practices developed by NIST to support implementation of the minimum risk-management practices described in OMB’s memorandum; OMBの覚書に記載された最低限のリスクマネジメントの実施を支援するためにNISTが開発したガイドライン、ツール、プラクティス;
Further procurement guidance from OMB to ensure that Federal AI procurement aligns with the policies in this memorandum, and a method to track agencies’ AI maturity; and 連邦政府のAI調達がこの覚書の方針と整合することを確実にするためのOMBからのさらなる調達ガイダンス、および各機関のAI成熟度を追跡する方法。
A national surge in AI talent to grow the Federal Government’s AI workforce capacity. 連邦政府のAI労働能力を向上させるため、AI人材を全国的に急増させる。
9. Would this draft policy apply to contractors? 9. このドラフト方針は請負業者にも適用されるのか?
Yes. The guidance will apply to any development, use, or procurement of AI by the Federal government or on its behalf, and pursuant to EO 14110, OMB will issue further guidance focused specifically on contractors in the coming months. EO14110に従い、OMBは今後数ヶ月のうちに、請負業者に特化したさらなるガイダンスを発表する予定である。
10. What happens next? 10. 次に何が起こるのか?
OMB collected public comments and will be reviewing recommendations on regulations.gov and publishing the comments. The next draft of the policy will be shared with the interagency council established in subsection 10.1(a) of EO 14110 before the policy’s final issuance. The final guidance is due within 150 days of the order. OMBはパブリックコメントを収集し、regulations.govで勧告を検討し、コメントを公表する予定である。次回のドラフトは、EO14110の第10.1項(a)で設立された機関間協議会で共有された後、最終的に発行される。最終ガイダンスは命令から150日以内に出される。

 

1_20231215152701

 


 

まるちゃんの情報セキュリティ気まぐれ日記

・2023.11.28 米国 CISA AI導入のロードマップ (2023.11.14)

・2023.11.06 米国の「人工知能の安全、安心、信頼できる開発と利用に関する大統領令」についての 各界からの反応...

・2023.11.03 米国 OMB AI実施ガイダンス案

 

・2023.10.31 米国 人工知能の安全、安心、信頼できる開発と利用に関する大統領令

 

・2023.10.27 米国 MITRE 重要インフラにおけるAIサイバーリスク低減の原則: 優先順位付けのアプローチ

・2023.10.05 米国 IT産業協議会 (ITI) がEUのAI法案に対する提言

・2023.09.27 米国 行政管理局 (OMB) M-23-22 デジタルファーストの公共体験の提供(日本政府の職員も是非読んでください...)(2023.09.22)

・2023.09.26 米国 商工会議所 教育・提言キャンペーン「責任あるAIビジネス・リーダーシップ・イニシアティブ」

・2023.09.20 米国 GAO 人工知能の活用と急成長がその可能性と危険性を浮き彫りにする

・2023.09.17 米国 NSA FBI CISA 組織に対するディープフェイクの脅威の文脈化

・2023.08.29 米国 ピュー研究所 過半数の米国民はAIに懸念を感じている?そして、ChatGPTを使ったことがある米国民は1/4?

・2023.08.14 米国 特定の国家安全保障技術および製品への米国投資に関する大統領令 (2023.08.09)

・2023.08.13 米国 国防総省 CDAOが国防総省の新しい生成的AIタスクフォース(タスクフォース・リマ)の指揮を執る

・2023.08.11 米国 AIサイバーチャレンジ DEF CON32-33 (2024-2025) by DARPA (2023.08.08)

・2023.07.31 米国 FBI長官がサイバー脅威サミットで人工知能に対するFBIの姿勢を示す

・2023.07.22 米国 ホワイトハウス 7つの米国AI企業が、バイデン政権とした3つの分野の8つの約束

・2023.06.17 米国 国防総省 最高デジタル・AI室が第6回グローバル情報支配実験 (GIDE) を開催

・2023.06.16 米国 MITRE AIセキュリティのための賢明な規制の枠組み

・2023.06.15 米国 GAO 科学技術スポットライト:生成的AI

・2023.05.27 米国 国家人工知能研究開発 戦略計画 2023更新 (2023.05.23)

・2023.05.26 米国 ファクトシート:バイデン-ハリス政権、責任ある人工知能の研究・開発・実装を進める新たなステップを導入

・2023.05.08 米国 ホワイトハウス 「米国人の権利と安全を守る責任あるAIイノベーションを推進する新たな行動」 (2023.05.04)

・2023.05.06 米国 連邦取引委員会 AIと消費者の信頼の工学 (It’s cool to use the computer. Don’t let the computer use you. by Prince in 1999)

・2023.05.01 米国 国家人工知能諮問委員会1年間の活動報告書

・2023.04.30 米国 国土安全保障省 人工知能タスクフォースを設立 (2023.04.20)

・2023.04.28 米国 連邦取引委員会 司法省 消費者金融保護局 雇用機会均等委員会 「自動化システムにおける差別やバイアスに対する執行努力に関する共同声明 」

・2023.04.04 米国 ファクトシート:「民主主義のための技術の進歩」と「バイデン-ハリス政権の国内外における民主主義の再生への揺るぎないコミットメント」 (2023.03.29)

・2023.03.23 OECD AIにおけるアカウンタビリティの高度化 (2023.02.23)

・2023.03.14 米国商工会議所 人工知能報告書

・2023.03.08 米国 情報技術産業協会 (ITI) AIに関する新たな政策提言を発表 (2023.03.02)

 

・2022.10.07 米国 科学技術政策局 AI権利章典の青写真

 

・2022.09.20 米国 ITI AIシステムの透明性を実現するためのグローバルな政策原則 (2022.09.15)

・2022.08.19 NIST ホワイトペーパー(ドラフト) コンテキストにおけるAI/MLバイアスの緩和

・2022.06.01 米国 消費者金融保護局 AIを使った与信結果についても消費者にその理由を説明しなければならない

・2022.04.30 米国 GAO ブログ 人工知能は国家安全保障をどう変えるか (2022.04.19)

・2022.04.20 米国 商務省 国家AI諮問委員会に27名を任命

・2022.03.20 米国 ピュー研究所 AIと人間強化についての調査

・2021.09.10 米国 CSET AIの偶発事故:新たな脅威となる可能性

・2021.09.10 米国 連邦商務省 国家人工知能諮問委員会を設立

・2021.05.10 米国連邦政府 人工知能イニシアティブ

・2021.03.31 米国 CSET AI安全性の主要概念:概要

・2020.11.30 米国 OMBが「人工知能アプリケーション規制のためのガイダンス」を発行

・2020.07.05 米国 国防省の内部監査部門が「AIのプロジェクトのガバナンスとセキュリティをしっかりせい」とおっしゃっているようです。。。

 

|

« 個人情報保護委員会 EDPBが2023年3月28日に採択した「個人データ侵害通知に関するガイドライン09_2022」の仮訳 (2023.12.08) | Main | NIST SP 800-79 Rev.3(初期公開ドラフト)PIV カードおよび派生 PIV クレデンシャル発行者の認可に関するガイドライン »

Comments

Post a comment



(Not displayed with comment.)


Comments are moderated, and will not appear on this weblog until the author has approved them.



« 個人情報保護委員会 EDPBが2023年3月28日に採択した「個人データ侵害通知に関するガイドライン09_2022」の仮訳 (2023.12.08) | Main | NIST SP 800-79 Rev.3(初期公開ドラフト)PIV カードおよび派生 PIV クレデンシャル発行者の認可に関するガイドライン »